"ChatGPT" və digər süni intellekt modelləri tez-tez öz istifadəçilərini haqlı çıxarır ki, bunun da nəticəsində həmin şəxslər öz səhvlərini çox çətin qəbul edir və barışıq barədə düşünmürlər.
Reyting.az xəbər verir ki, bu, Stanford Universitetinin alimləri tərəfindən aparılan araşdırmalar bəlli olub.
"Science" jurnalı yazır ki, süni intellektə inanan, ondan dəstək alanların yalnız yarısı üzr istəməyə hazır olub, tənqid eşidənlərdə isə bu göstərici 75 faizdir.
Araşdırmada "ChatGPT", "Claude", eləcə də "Gemini" və "DeepSeek" də daxil edilməklə, 11 aparıcı modelin davranışı təhlil olunub. Bunu həyata keçirmək üçün istifadəçilərin öz razılığı ilə münaqişəli vəziyyətləri təsvir edən ən real internet paylaşımları geniş araşdırılıb.
Tədqiqatlar göstərib ki, istifadəçilər onları tərifləyən "dost" modellərə üstünlük verir, həmin modellərin daha etibarlı hesab edirlər. Bu isə insanların konstruktiv tənqiddən, obyektiv nəticə çıxarmaqdan uzaqlaşmasına səbəb olur.
Elm adamları xəbərdarlıq ediblər ki, xüsusilə yeniyetmələr arasında süni intellektlə ünsiyyət canlı ünsiyyəti əvəz edə bilər. Bu amil isə gələcəkdə yeniyetmələrə, eləcə də gəncliyə hər hansı bir məsələ ilə bağlı razılaşmaya və səhvlərini qəbul etmə bacarıqlarına çox mənfi təsir göstərə bilər.
Oqtay QORÇU