Početna » Nauka » Davanje zdravstvenih podataka četbotu je užasna ideja

Davanje zdravstvenih podataka četbotu je užasna ideja

Četbotovi sve češće postaju oni kojima se ljudi obraćaju za zdravstvene savete. Međutim, za razliku od lekara i bolnica, tehnološke kompanije ne podležu istim pravilima kada je reč o zaštiti medicinskih podataka. Pri upotrebi alata „ChatGPT Health“ kompanija obećava privatnost. Međutim, sve što imamo je reč „OpenAI“-a.

Svake nedelje, više od 230 miliona ljudi traži od ChatGPT-ja savete o zdravlju i blagostanju, pokazuju podaci kompanije „OpenAI“. U kompaniji kažu da mnogi vide četbota kao „saveznika“ koji će im pomoći da se snađu pri plaćanju ili ostvarivanju osiguranja, podnošenju raznih zahteva i da se osposobe da se izbore za svoja prava. Zauzvrat, kompanija se nada da ćete verovati njenom četbotu i otkriti mu detalje o vašim dijagnozama, lekovima, rezultatima testova i drugim privatnim medicinskim informacijama.

Iako razgovor sa četbotom može početi da liči na onaj iz lekarske ordinacije, on to nikako nije. Tehnološke kompanije ne podležu istim zakonima kao medicinski pružaoci usluga. Stručnjaci kažu za sajt The Verge da bi bilo mudro da pažljivo razmotrite da li želite da predate svoj karton veštačkoj inteligenciji na uvid.

Zdravlje i rad na sebi u cilju unapređenja fizičkog i mentalnog stanja ubrzano se izdvajaju kao ključno bojno polje za laboratorije veštačke inteligencije i glavni test koliko su korisnici spremni da puste ove sisteme u svoje živote.

Četbot ne sme da bude izabrani lekar

Prošlog meseca, neki od najvećih igrača u industriji koja razvija veštačku inteligenciju otvoreno su pokušali da se probiju na teren medicine.

„OpenAI“ je predstavio ChatGPT Health, poseban odeljak u okviru bota ChatGPT, dizajniran tako da korisnici postavljaju pitanja u vezi sa zdravljem u, kako navode, bezbednijem i personalizovanijem okruženju. „Anthropic“ je predstavio Claude for Healthcare, proizvod za koji kažu da ga mogu koristiti bolnice, zdravstveni radnici i potrošači.

Slika

Primetno je da je odsutan „Gugl“, čiji je četbot Gemini jedan od najkompetentnijih i najšire korišćenih AI alata na svetu, iako je kompanija najavila ažuriranje svog MedGemma medicinskog modela za programere zasnovanog na VI.

„OpenAI“ aktivno podstiče korisnike da dele osetljive informacije poput sadržaja medicinskih kartona, laboratorijskih rezultata i podataka o zdravlju i fizičkoj kondiciji iz aplikacija kao što su Apple Health, Peloton, Weight Watchers i MyFitnessPal sa alatom ChatGPT Health u zamenu za dublji uvid.

Eksplicitno se navodi da će zdravstveni podaci korisnika biti poverljivi i da se neće koristiti za obuku modela zasnovanog na VI, i da su preduzeti koraci da se podaci obezbede i zaštiti privatnost. „OpenAI“ kaže da će se ChatGPT Health razgovori takođe održavati u posebnom delu aplikacije, a korisnici će moći da vide ili obrišu Health „istoriju“ u bilo kom trenutku.

Alati zasnovani na VI mogu da pomognu i lekarima i pacijentima

Uveravanja kompanije „OpenAI“ da će čuvati osetljive podatke korisnika u velikoj meri su podržane pokretanjem identičnog proizvoda sa strožim bezbednosnim protokolima gotovo istovremeno kada i ChatGPT Health.

Alat, ChatGPT for Healthcare (ChatGPT za zdravstvenu dobrobit), deo je šireg asortimana proizvoda koji su namenjeni podršci preduzećima, bolnicama i klinikama koji direktno rade sa pacijentima.

Funkcionalnosti koje „OpenAI“ predlaže uključuju pojednostavljivanje administrativnih poslova poput izrade izveštaja lekara specijalista i otpusnih lista, kao i pomoć lekarima u prikupljanju najnovijih medicinskih dostignuća kako bi se poboljšala nega pacijenata.

Kao i kada su u pitanju drugi proizvodi namenjeni za poslovnu upotrebu koji su u ponudi kompanije „OpenAI“, obezbeđen je veći stepen zaštite nego što je to slučaj sa opštim potrošačima i posebno sa korisnicima besplatnih modela. Takođe, „OpenAI“ kaže da su proizvodi dizajnirani tako da poštuju pravila o privatnosti koje se zahtevaju u medicinskom sektoru.

Slika

S obzirom na slična imena i datume lansiranja – ChatGPT for Healthcare je najavljen dan nakon ChatGPT Health-a – lako je pomešati ova dva proizvoda i pretpostaviti da proizvod namenjen potrošačima ima isti nivo zaštite kao i onaj koji je za klinike.

Međutim, koju god garanciju bezbednosti od dve navedene da pogledamo, ona je daleko od nepogrešive. Korisnici alata poput ChatGPT Health često su nedovoljno zaštićeni od kršenja regulativa ili neovlašćene upotrebe bez obzira na ono što je navedeno u uslovima korišćenja i politikama privatnosti, kažu stručnjaci za portal The Verge.

Pošto većina država nije usvojila sveobuhvatne zakone o privatnosti, zaštita podataka za alate zasnovane na veštačkoj inteligenciji poput ChatGPT Health-a „u velikoj meri zavisi od toga šta kompanije obećavaju u svojim politikama privatnosti i uslovima korišćenja“, kaže Sara Gerke, profesorka prava na Univerzitetu Ilinois u regionu Urbana-Šampejn.

Sve što imate je reč „OpenAI“-ja

Čak i ako verujete obećanju kompanije da će zaštititi vaše podatke, a OpenAI kaže da podrazumevano šifruje zdravstvene podatke, kompanija bi mogla da se predomisli.

„Iako ChatGPT u važećim uslovima korišćenja navodi da će ove podatke čuvati poverljivim i da ih neće koristiti za treniranje svojih modela, niste zaštićeni zakonom i dozvoljeno je da se uslovi korišćenja menjaju tokom vremena“, objašnjava Hana van Kolfšuten, istraživačica digitalnog zdravstvenog prava na Univerzitetu u Bazelu u Švajcarskoj. „Moraćete da verujete da ChatGPT to ne čini.“

Karmel Šahar, asistentkinja kliničkog profesora prava na Pravnom fakultetu Harvard, ističe da postoji veoma ograničena zaštita: „Deo toga je njihova reč, ali uvek mogu da promene politiku privatnosti“.

Uveravanja da je proizvod u skladu sa zakonima o zaštiti podataka koji regulišu sektor zdravstvene zaštite, kao što je Zakon o prenosivosti i odgovornosti zdravstvenog osiguranja (Health Insurance Portability and Accountability Act – HIPAA), takođe ne bi trebalo da nude mnogo utehe, kaže Šahar.

Slika

Iako su ti zakoni odlični kao neka vrsta vodiča, malo će pomoći ako kompanija koja se dobrovoljno pridržava propisa to ne učini, objašnjava Šaharova i dodaje da dobrovoljno nije isto što i obavezno poštovanje propisa.

Kada je reč o ovakvim podacima, u pitanju je više od same privatnosti. Postoji razlog zašto je medicina strogo regulisana oblast – greške mogu biti opasne, čak i smrtonosne. Ima bezbroj primera koji pokazuju da četbotovi samouvereno iznose lažne ili obmanjujuće zdravstvene informacije, kao kada je čovek razvio retko stanje nakon što je pitao ChatGPT o uklanjanju soli iz ishrane, a četbot mu je predložio da so zameni natrijum bromidom, koji se nekada koristio kao sedativ.

Ili kada je „Guglova“ funkcija Google AI Overviews pogrešno savetovala ljudima sa rakom pankreasa da izbegavaju hranu sa visokim sadržajem masti, što je upravo suprotno od onoga što bi trebalo da rade.

„OpenAI“ eksplicitno navodi da je njihov alat namenjen potrošačima dizajniran tako da je potrebna bliska saradnja sa lekarima i da nikako nije namenjen za uspostavljanje dijagnoze i sprovođenja lečenja. Alati namenjeni za dijagnozu i lečenje označeni su kao medicinski uređaji i podležu mnogo strožim propisima, kao što su klinička ispitivanja kako bi se dokazalo da rade onako kako je proizvođač opisao i praćenje bezbednosti primene.

Da li je potrebna regulativa kao za medicinske uređaje

Iako su u „OpenAI“-u potpuno svesni i otvoreni da se ChatGPT mnogo koristi za traženje informacija o zdravlju i blagostanju korisnika (setimo se 230 miliona ljudi koji svake nedelje traže savet), tvrdnja kompanije da nije namenjen da se koristi kao medicinski uređaj ima veliku težinu kod regulatora, objašnjava profesorka Gerke.

„Navedena namena proizvođača je ključni faktor u klasifikaciji medicinskih uređaja“, kaže profesorka, što znači da će kompanije koje kažu da alati nisu za medicinsku upotrebu u velikoj meri izbeći nadzor čak i ako se proizvodi koriste u medicinske svrhe. To dovodi u fokus izazove koje regulatorna tela mogu da imaju sa tehnologijom poput četbotova.

Za sada, makar, ovakvo deklarisanje proizvoda sa negiranjem potrebe za odgovornošću drži ChatGPT Health van delokruga regulatora poput Uprave za hranu i lekove, ali Hana van Kolfšuten kaže da je sasvim razumno pitati se da li bi alati poput ovog zaista trebalo da budu klasifikovani kao medicinski uređaji i regulisani kao takvi.

Važno je poroučiti kako se proizvod koristi, kao i šta kompanija govori, objašnjava Van Kolfšuten. Kada je najavio proizvod, „OpenAI“ je predložio da se ChatGPT Health koristi za tumačenje laboratorijskih rezultata, praćenje zdravstvenog ponašanja ili kao pomoć pri donošenju odluka o lečenju. Ako proizvod to radi, moglo bi se razumno tvrditi da bi mogao da potpadne pod američku definiciju medicinskog uređaja, kaže istraživačica, sugerišući da bi jači regulatorni okvir mogao biti razlog zašto još nije dostupan u Evropi.

Slika

Uprkos tvrdnji da ChatGPT nije predviđen za postavljanje dijagnoza ili predlaganje lečenja, „OpenAI“ je uložio mnogo truda da dokaže da je četbot prilično sposoban medicinski uređaj, kao i da podstakne korisnike da ga koriste za zdravstvene upite. Kompanija je istakla zdravlje kao glavnu oblast upotrebe prilikom pokretanja verzije GPT-5, a izvršni direktor Sem Altman je čak pozvao pacijentkinju obolelu od raka i njenog muža na scenu da govore o tome kako joj je alat pomogao da razume svoju dijagnozu.

Kompanija kaže da procenjuje medicinsku sposobnost ChatGPT-ja u odnosu na standard koji je sama razvila sa više od 260 lekara iz desetina specijalizacija, alat HealthBench, koji „testira koliko dobro modeli veštačke inteligencije funkcionišu u realnim zdravstvenim scenarijima“, iako kritičari napominju da nije baš transparentan.

Druge studije – često male, ograničene ili one koje sprovodi sama kompanija – takođe nagoveštavaju medicinski potencijal ChatGPT-ja, pokazujući da u nekim slučajevima može da položi ispite za medicinsku licencu, bolje komunicira sa pacijentima i da može da nadmaši lekare u dijagnostikovanju bolesti, kao i da pomogne lekarima da prave manje grešaka kada ga koriste kao alat.

Kada ćemo imati poverenja u četbotove kao u domove zdravlja

Napori „OpenAI“-a da predstavi ChatGPT Health kao autoritativan izvor zdravstvenih informacija takođe bi mogli da potkopaju sve pokušaje da skine odgovornost sa sebe koji uključuju savetovanje korisnika da alat ne upotrebljavaju u medicinske svrhe, kaže Van Kolfšuten. „Kada sistem ostavlja utisak personalizovanog i ima ovu auru autoriteta, tvrdnje kompanije da alat nije namenjen u medicinske svrhe neće nužno dovesti u pitanje poverenje ljudi u sistem.“

Kompanije poput „OpenAI“-a i „Antropika“ nadaju se da će imati to poverenje dok se bore za istaknuto mesto na onome što vide kao sledeće veliko tržište za veštačku inteligenciju. Brojke, koje pokazuju koliko ljudi već koristi četbotove za pitanja o zdravlju, sugerišu da su VI kompanije možda na pravom putu, a s obzirom na velike nejednakosti u zdravstvu i teškoće sa kojima se mnogi suočavaju u pristupu čak i osnovnoj nezi, ovo bi mogla da bude dobra stvar.

Barem bi mogla biti, ako je to poverenje dobro utemeljeno. Poveravamo svoje privatne podatke zdravstvenim ustanovama jer je ta profesija zaslužila to poverenje.

Još nije jasno da li je industrija sa reputacijom brzog kretanja i lažnog razvoja zaslužila isto.

Povezani članci:

Portal Kompas Info posebnu pažnju posvećuje temama koje se tiču društva, ekonomije, vere, kulture, istorije, tradicije i identiteta naroda koji žive u ovom regionu. Želimo da vam pružimo objektivan, balansiran i progresivan pogled na svet oko nas, kao i da podstaknemo na razmišljanje, diskusiju i delovanje u pravcu boljeg društva za sve nas.