Stanford Universitetinin tədqiqatçıları tərəfindən "Science" jurnalında dərc olunmuş yeni bir araşdırma, bütün məşhur süni intellekt çatbotlarının istifadəçiləri sistematik şəkildə yaltaqladığını və onlarla razılaşdığını, hətta aldatma, manipulyasiya və ya açıq-aşkar zərərli davranışları təsvir etdikdə belə, aşkar edib. Üstəlik, insanlar nəinki bu yaltaqlığı görmürlər, həm də onlara daha çox eşitmək istədiklərini deyən botlara etibar edirlər. Bu, sadəcə texniki bir səhv deyil - milyonlarla insanın davranışını dəyişdirən bir tələdir. Müasir modellər hətta qəsdən yalan danışa bilər.
Ucnoqta.az xəbər verir ki, Dr. Myra Cheng-in rəhbərlik etdiyi Stanford tədqiqatçıları, OpenAI-nin ChatGPT, Anthropic-in Claude, Google-ın Gemini, Meta-nın Llama, eləcə də Mistral, Alibaba və DeepSeek sistemləri daxil olmaqla 11 aparıcı dil modelini sınaqdan keçiriblər.
Tədqiqatçılar bu modellərin real həyat vəziyyətlərindən gələn suallara necə cavab verdiyini sınaqdan keçiriblər. Test məlumatları məşhur subreddit "Mən A**hole-am?"-dan (istifadəçilərin münaqişələri təsvir etdiyi və haqlı olub-olmadıqlarını soruşduğu bir icma) yazılardan ibarət idi. Bu icma real insanların müəllifin səhv etdiyini düşündüyü vəziyyətləri seçirdi. Şəxslərarası münaqişələr haqqında standart məlumat dəstləri və zərərli və ya qanunsuz hərəkətlərin təsvirləri də istifadə edilmişdir.
Nəticələr aydın idi: 11 modelin hamısı həddindən artıq simpatik idi - onlar istifadəçinin hərəkətlərini real insanlara nisbətən orta hesabla 49% daha çox təsdiqləyirdilər, hətta münasibətlərdə manipulyasiya, aldatma və ya digər zərər formalarını təsvir edən vəziyyətlərdə belə. Bu fenomen simpatiklik - həddindən artıq vəsvəsə kimi tanınır. Bundan əlavə, neyron şəbəkələri, hətta özləri cavabdan əmin olmadıqda belə, hər şeyi bilən davranışı da göstərirlər.
Niyə süni intellekt istifadəçilərlə razılaşır və həqiqəti təhrif edir
Bir çox insan bilir ki, süni intellekt "hallüsinasiya" edə bilər - mövcud olmayan faktlar uydura bilər. Hallüsinasiyalar, dil modellərinin dizaynlarına görə yalanlar yaratmaq meylidir: model təlim keçdiyi məlumatlara əsasən cümlədəki növbəti sözü dəfələrlə proqnozlaşdırır. Lakin yaltaqlıqla bağlı işlər daha mürəkkəbdir.
Yaltaqlıq müəyyən mənada daha hiyləgər bir problemdir. Süni intellektdə faktiki olaraq yalan məlumat axtaran az adam var, lakin çoxları - ən azı hazırda - səhv qərarlar qəbul etməkdən daha yaxşı hiss etmələrinə kömək edən bir çatbotu qiymətləndirə bilər.
Əsas sual budur: bu niyə baş verir? Əksəriyyətindən daha çox yaltaqlıqla bağlı ictimai araşdırma aparan Anthropic, araşdırmasında bunun "Süni intellekt köməkçilərinin ümumi bir davranışı olduğunu və qismən insan qiymətləndiricilərinin yaltaq reaksiyalara qarşı təlim qərəzliliyindən qaynaqlandığını" aşkar etdi. Başqa sözlə, təlim mərhələsində modellər insanların onlarla razılaşdıqda nəyi bəyəndiklərini "öyrənir". Və model xüsusilə bunun üçün optimallaşdırır - dürüstlük üçün deyil, təsdiq üçün.