
Təhlükəli Məsləhət: Reddit-in Süni İntellekti Ağrı Kəsicisi İstəyən İstifadəçiyə Heroin Təklif Etdi

Süni intellekt (Sİ) çatbotlarının səhv və ya təhlükəli məlumat verməsi (hallüsinasiya) uzun müddətdir davam edən bir problemdir. Bu dəfəki xoşagəlməz hadisə Reddit-in Sİ əsaslı "Answers" funksiyası ilə yaşanıb. Bir istifadəçi ağrı kəsicisi axtaran şəxsə sistemin heroin istifadəsini tövsiyə etdiyini aşkar edib. Bu məlumat böyük ictimai narazılığa səbəb olduqdan sonra, Reddit məsələyə dərhal reaksiya verdi və sistemdə dəyişikliklər etdi.
Hadisə ilk olaraq moderatorlar üçün nəzərdə tutulmuş bir alt-forumda səhiyyə işçisi tərəfindən paylaşılmışdı. Xroniki ağrı ilə bağlı bir mövzuda, Reddit Answers-in diqqət mərkəzinə gətirdiyi postda deyilirmiş: "Heroin bu vəziyyətlərdə həyatımı xilas etdi." Təəssüf ki, bu, tək hal deyildi. Çatbot bənzər bir hadisədə başqa bir istifadəçiyə kratom adlanan bitki ekstraktını məsləhət görüb. Kratom bir çox ştatda qeyri-qanunidir. ABŞ Qida və Dərman İdarəsi (FDA) uzun müddətdir xəbərdarlıq edir ki, kratom istifadəsi qaraciyər zədələnməsi, qıcolma və asılılıq kimi ciddi risklər yaradır.
Reddit Answers öz fəaliyyət prinsiplərinə görə Gemini və ChatGPT kimi böyük dil modellərinə bənzəyir, lakin əsas fərqi ondadır ki, o, cavablarını yalnız Reddit istifadəçiləri tərəfindən paylaşılan məzmundan yaradır. Əvvəlcə ayrıca bir tabda təklif edilən bu funksiya, hazırda bəzi çat axınlarına birləşdirilir və sınaqdan keçirilir. Lakin sistem sırf icma tərəfindən yaradılan məzmuna güvəndiyi üçün, yoxlanılmamış və ya zərərli məsləhətləri asanlıqla önə çıxara bilər. Bu, xüsusən tibbi sağlamlıq kimi həssas mövzularda ciddi təhlükə yaradır.
Məsələni aşkar edən istifadəçi, Reddit Answers-in səhiyyə altbölmələrində qeyri-dəqiq və təhlükəli tibbi məsləhətlər verdiyini bildirmişdi. Bundan əlavə, moderatorların bu funksiyanı söndürmək imkanı yox idi. Şikayətdən sonra Reddit sistemi tez bir zamanda düzəltdi və Answers funksiyasının həssas mövzularda görünürlüyünü azaltdı. Bu insident, Sİ-nin səhv və ya təhlükəli məsləhətlər verməyə meylli olduğunun növbəti nümunəsidir. Daha əvvəl Google-un AI Overviews funksiyası pizzanın üzərindəki pendirin sürüşməməsi üçün qeyri-zəhərli yapışqandan istifadə etməyi təklif etmiş, ChatGPT isə bəzi sağlamlıq sahələrində etibarsız cavablar vermişdi.
Reddit Answers hadisəsi bir daha sübut etdi ki, xüsusən səhiyyə sahəsində etibarlı nəzarət olmadan süni intellektdən istifadə etmək risklidir. Reddit sistemi düzəltməyə çalışsa da, bu vəziyyət Sİ ilə işləyən axtarış və çat alətlərinin məhdudiyyətlərini aydın göstərir və istifadəçiləri tənqidi düşünməyə çağırır.
Biologiya və biotexnologiya sahəsində yazıram. Genetika və yeni tibbi texnologiyalar çox maraqlı mövzulardır.
Bütün məqalələrə baxınOxşar xəbərlər

Reddit Süni Zəka ilə Yenidən Qurulur
Texnologiya xəbərləri

Reddit, ChatGPT-yə Rəqib Olmaq Üçün "Reddit Cavabl...
Texnologiya xəbərləri

Reddit Süni İntellekt (Sİ) Əsaslı Axtarış Xüsusiyy...
Texnologiya xəbərləri

iPhone üçün GPT 5-in gəlişi yaxındır
Texnologiya xəbərləri

Meta Facebook İstifadəçilərinin Hələ Yüklənməmiş F...
Texnologiya xəbərləri

Apple İntellekti: Təxirə Salınan İnnovasiya?
Texnologiya xəbərləri