BMJ Open jurnalında dərc olunan araşdırma süni intellekt çat-botlarının sağlamlıqla bağlı cavablarında ciddi problemlər olduğunu ortaya qoyub. Tədqiqatda ChatGPT, Gemini, Grok, Meta AI və DeepSeek kimi platformalar test edilib.
Alimlər bu sistemlərə xərçəng, peyvəndlər, qidalanma və idman performansı ilə bağlı 50 sual ünvanlayıb. Nəticələrə görə cavabların:
- 20%-i ciddi problemli,
- 50%-i problemli,
- 30%-i isə qismən problemli olub.
Araşdırma göstərib ki, süni intellekt çox vaxt elmi əsaslardan uzaq cavablar verir və təqdim etdiyi mənbələrdə səhv müəllif adları, işləməyən linklər və ya uydurma məlumatlar yer alır.
Ən yüksək səhv göstəricisi Grok (58%) olub. Onu ChatGPT (52%) və Meta AI (50%) izləyib.
Tədqiqat həmçinin göstərib ki, süni intellekt qapalı (“doğru/yanlış”) suallarda daha dəqiq cavab versə də, açıq suallarda səhv ehtimalı artır. Xüsusilə qidalanma və idman kimi ziddiyyətli məlumatların çox olduğu sahələrdə səhvlər daha çoxdur.
Digər tərəfdən, Nature Medicine jurnalında dərc olunan başqa araşdırma göstərib ki, süni intellekt özü-özlüyündə yüksək dəqiqliklə cavab verə bilsə də, real istifadəçilər bu alətlərdən istifadə edərkən düzgün nəticə əldə etmə faizi cəmi 35%-ə düşür.
Mütəxəssislər vurğulayır ki, süni intellekt faydalı köməkçi vasitə olsa da, tibbi qərarlar üçün əsas mənbə kimi qəbul edilməməlidir və alınan məlumatlar mütləq yoxlanmalıdır.
Mənbə: TrtHaber
