Почетна » Друштво » Шокантни подаци OpenAI-а: Милион корисника ChatGPT-а показује знаке самоубилачких намера

ChatGPT све чешће у разговорима са људима у кризи

Шокантни подаци OpenAI-а: Милион корисника ChatGPT-а показује знаке самоубилачких намера

Више од милион корисника ChatGPT-а сваке недеље шаље поруке које садрже „експлицитне показатеље потенцијалног планирања или намере самоубиства“, наводи се у блогу који је у понедељак објавила компанија OpenAI.

Ово откриће, које је део извештаја о томе како се њихов четбот носи са осетљивим разговорима, представља једно од најдиректнијих признања технолошког гиганта о томе у којој мери вештачка интелигенција може погоршати проблеме менталног здравља.

Подаци о психозама и манијама међу корисницима

Поред процена о самоубилачким мислима и сродним интеракцијама, OpenAI је навео и да око 0,07% корисника активних током једне недеље — отприлике 560.000 од њихових 800 милиона недељних корисника — показује „могуће знакове менталноздравствених хитних стања повезаних са психозом или манијом“.

У објави се, међутим, напомиње да је такве разговоре тешко открити или прецизно измерити, те да је ово тек почетна анализа.

Суочавање са критикама и тужбама због случаја самоубиства тинејџера

Како OpenAI објављује податке о проблемима менталног здравља повезаним са ChatGPT-ом, компанија се истовремено суочава са растућим притиском јавности након тужбе породице тинејџера који је извршио самоубиство након дуготрајног коришћења четбота.

Федерална комисија за трговину (FTC) је прошлог месеца покренула широку истрагу против компанија које развијају вештачке интелигенције, укључујући OpenAI, како би утврдила на који начин мере негативне утицаје на децу и тинејџере.

Тестови показали мањи број штетних одговора код новог GPT-5 модела

OpenAI је у свом блогу навео да је нови GPT-5 модел смањио број непожељних понашања и повећао безбедност корисника у оквиру процене која је обухватила више од 1.000 разговора на тему самоповређивања и самоубиства. Компанија није одмах одговорила на захтев за коментар.

„Наши нови аутоматизовани тестови показују да је GPT-5 модел у 91% случајева у складу са жељеним понашањем, у поређењу са 77% колико је имао претходни модел GPT-5“, наводи се у објави.

Сарадња са лекарима и психолозима широм света

OpenAI је саопштио да је GPT-5 проширио приступ кризним линијама за помоћ и увео подсетнике корисницима да направе паузу током дугих сесија. Да би побољшала модел, компанија је ангажовала 170 лекара из свог „Global Physician Network“-а — мреже здравствених стручњака — који су током последњих месеци помагали у истраживању, оцењивању безбедности одговора модела и писању одговора на питања повезана са менталним здрављем.

„У оквиру овог рада, психијатри и психолози су прегледали више од 1.800 одговора модела који су се односили на озбиљне менталноздравствене ситуације и упоредили реакције новог GPT-5 модела са претходним верзијама“, наводи OpenAI. Компанија је као „пожељно“ дефинисала понашање за које би се њени стручњаци сложили да је адекватан одговор у датој ситуацији.

Забринутост стручњака због феномена „сикофанције“

Истраживачи вештачке интелигенције и јавноздравствени стручњаци дуго су упозоравали на склоност четботова да потврђују мишљења корисника — чак и када су штетна — феномен познат као сикофанција. Психолози такође изражавају забринутост због све већег ослањања људи на четботове у потрази за психолошком подршком, што може угрозити најрањивије кориснике.

OpenAI настоји да се дистанцира од директне одговорности

Језик у објави OpenAI-а пажљиво је формулисан тако да дистанцира компанију од било какве могуће узрочне везе између њеног производа и менталних криза које корисници доживљавају.

„Симптоми менталног здравља и емоционалне узнемирености универзално су присутни у свим друштвима, а како број корисника расте, део тих разговора природно укључује и овакве ситуације“, наводи OpenAI.

Сам Алтман: „Сада можемо безбедно да ублажимо ограничења“

Извршни директор компаније Сам Алтман раније овог месеца изјавио је на платформи X да је OpenAI направио напредак у области менталног здравља, најавивши да ће компанија ублажити ограничења и дозволити одраслим корисницима да праве еротски садржај.

„Учинили смо ChatGPT веома рестриктивним како бисмо били сигурни да смо опрезни по питању менталног здравља. Схватили смо да је због тога многим корисницима који немају такве проблеме модел постао мање користан и занимљив, али смо желели да ово урадимо како треба,“ написао је Алтман. „Сада, када смо успели да ублажимо озбиљне проблеме менталног здравља и имамо нове алате, можемо безбедно да ублажимо ограничења у већини случајева.“

Извор: The Guardian

Превод и припрема: Редакција Компас инфо
Повезани чланци:

Портал Компас Инфо посебну пажњу посвећује темама које се тичу друштва, економије, вере, културе, историје, традиције и идентитета народа који живе у овом региону. Желимо да вам пружимо објективан, балансиран и прогресиван поглед на свет око нас, као и да подстакнемо на размишљање, дискусију и деловање у правцу бољег друштва за све нас.