ChatGPT son araşdırmalara görə, insan kimi qərar qəbul etmə səhvlərinə yol verib. Həddindən artıq özünə inam kimi qərəzlər nümayiş etdirib. Riyaziyyatda yaxşı olsa da, süni intellektin etibarlılığını şübhə altına alan mühakimə tələb edən qərarlar verməkdə çətinlik çəkib.Süni intellektin insanlardan daha etibarlı qərarlar verəcəyi fikri yeni bir araşdırma ilə sarsılıb. OpenAI tərəfindən hazırlanmış ChatGPT ən təkmilləşdirilmiş süni intellekt modellərdən biri olsa da, insanların tez-tez buraxdığı qərar vermə səhvlərini təkrarlayıb.
"İnforms Manufacturing & Service Operations Management" jurnalında dərc edilən araşdırma süni intellektin düşündüyümüzdən daha çox bizə bənzədiyini ortaya qoyub.
Mütəxəssislər qeyd ediblər ki, süni intellekt insanlardan əldə etdiyi məlumatlar əsasında öyrəndiyi üçün bu qərəzləri miras alır. Qərb Universitetindən Yang Chen deyib ki, “AI zehni qısa yolları olan insan kimi düşünür, Queen’s Universitetindən Anton Ovchinnikov isə əlavə edib: “Aydın suallarla yaxşı nəticə verir, lakin mühakimə zamanı insan kimi səhvlər edir”. İş dünyasında işə qəbuldan kredit təsdiqinə qədər kritik qərarlar verən süni intellektdəki bu qüsurlar etibarlılıq müzakirələrini ön plana çıxarır.
Mənbə: TRT haber
Tərcümə etdi: Sona Osmanova