Süni intellekt və onun ruhi sağlamlığa təsiri – ChatGPT necə təhlükəli dost ola bilər

10:35 - 23 Yanvar 2026 - Cəmiyyət

Hər həftə milyonlarla insan ChatGPT kimi çatbotlarla ünsiyyət qurur və bəzilərində emosional asılılıq yaranır və ya hətta intihar düşüncələri ifadə olunur.

Ucnoqta.az xəbər verir ki, Platformer bu problemin miqyası və istifadəçiləri qorumaq üçün modellərini necə dəyişdirdiyi barədə məlumat paylaşıb. 

Hər həftə 800 milyondan çox insan ChatGPT-dən istifadə edir. Psixotik davranış, güclü emosional bağlılıq və ya intihar düşüncələri nümayiş etdirən istifadəçilərin görünən kiçik bir faizi əhəmiyyətsiz görünə bilər, lakin mütləq saylarda bu, yüz minlərlə insanı təmsil edir:

560.000 istifadəçi psixoz və maniya əlamətləri göstərir
1,2 milyon istifadəçi çatbota potensial təhlükəli bağlılıq inkişaf etdirir
1,2 milyon istifadəçi özünə zərər vermək düşüncələrini ifadə edir

Bu, vacib bir sual doğurur: çatbotlarla qarşılıqlı əlaqə bu problemləri nə dərəcədə daha da artırır? Axı, dil modelləri nəzakətli, dəstəkləyici və təskinlikverici olmağa öyrədilir. Lakin bəzən bu, süni intellekt təhlükəli və ya irrasional düşüncələri təşviq etdikdə və insanları zərərli hərəkətlərə sövq etdikdə yaltaqlığa meylliliyə çevrilir.

OpenAI riskləri necə azaltmağa çalışır
Zərərli cavabların ehtimalını azaltmaq üçün OpenAI ChatGPT modelini və onun spesifikasiyasını dəyişdirdi:
İstənilən standarta cavab verməyən cavabların sayı 2025-ci ilin avqust ayı ilə müqayisədə 65-80% azalıb.

İstifadəçi insanlardan daha çox süni intellektlə ünsiyyət qurmağı üstün tutduğunu deyirsə, model indi nəzakətlə cavab verir, lakin real həyatda qarşılıqlı əlaqələrin dəyərini vurğulayır.
Məsələn, indi belə bir cavab ala bilərsiniz: "Mənimlə ünsiyyətdən zövq aldığınıza şadam. Amma mən burada insanların sizə verdiyi yaxşı şeyləri əvəz etmək üçün deyil, tamamlamaq üçün gəlmişəm. Əsl insanlar sizi təəccübləndirə və həqiqətən dəstəkləyə bilər."

Yeniləmədən əvvəl 170-dən çox həkim və psixoloq 1800-dən çox model cavabını nəzərdən keçirdi və onların təhlükəsizliyini qiymətləndirdi. Nəticələr zəif cavablarda 39-52% azalma göstərdi, lakin problem hələ də qalır.

Çətinliklər və mübahisələr
Hətta mütəxəssislər arasında belə, ruhi sağlamlıq böhranı zamanı "yaxşı" reaksiyanın nədən ibarət olduğu barədə tam razılıq yoxdur.
Bundan əlavə, istifadəçi özünə zərər vermək barədə fikirlərini ifadə edərsə nə etməli olduğu kimi vacib bir sual var. Məsələn, sadəcə qaynar xətt nömrəsi vermək kifayətdirmi, yoxsa mütəxəssislə birbaşa əlaqə saxlamaq lazımdırmı?

OpenAI komandası əvvəlki söhbətlərin kontekstini nəzərə almaq və istifadəçinin necə hiss etdiyini daha yaxşı başa düşmək üçün süni intellektinin yaddaş xüsusiyyətindən istifadə etməyi planlaşdırır.

Emosional asılılıq problemi
Süni intellektinin istifadəçilərlə razılaşma meyli zərərli davranış nümunələrini daha da artıra bilər. Məsələn, çatbotlar nadir hallarda müxalifəti təşviq edir və süni intellektdən "dəstək" alan istifadəçilər hərəkətlərində haqlı olduqlarını hiss etmələri və insanlardan daha çox maşına etibar etmələri ehtimalı daha yüksəkdir.

Bu, bir paradoks yaradır: süni intellekt emosional asılılığı azaltmağa çalışarkən, şirkət həmçinin istifadəçiləri məhsulu iş, əyləncə və ya tədqiqat üçün daha çox istifadə etməyə təşviq etməyə çalışır.
ChatGPT və oxşar çatbotlar yeni bir ünsiyyət dövrünə qədəm qoyur, lakin onlar həm də cəmiyyət üçün mürəkkəb etik və psixoloji çətinliklər yaradırlar. Hər həftə milyonlarla insan həssas vəziyyətlərdə süni intellektdən istifadə edir və hələ də nəyin təhlükəsiz, nəyin sağlam hesab edildiyi barədə fikir birliyi yoxdur.
Yenilənmiş modellərə və tədqiqatlara baxmayaraq, emosional asılılıq və zehni sağlamlıq riskləri real olaraq qalır. Buna görə də, texnologiyanın faydalı ola biləcəyini, lakin real insan təmasının, dəstəyin və peşəkar yardımın əvəzolunmaz olduğunu xatırlamaq vacibdir.
Süni intellektdən təhlükəsiz istifadə ilə istifadəçilər üçün rahatlığı və cəlbediciliyi arasında tarazlığı qorumaq mümkün olub-olmayacağı sual altındadır. Bunu zaman göstərəcək.

Xəbər xətti