Početna » Slobodna zona » Zašto ChatGPT izbegava desničarske stavove, a preferira levičarske?

Novo istraživanje otkriva političku pristrasnost u generativnoj veštačkoj inteligenciji

Zašto ChatGPT izbegava desničarske stavove, a preferira levičarske?

Generativna veštačka inteligencija (AI) se brzo razvija, ali nova studija Univerziteta Istočne Anglije (UEA) upozorava da može predstavljati skrivene rizike po javno poverenje i demokratske vrednosti.

Sprovedena u saradnji sa istraživačima iz Fondacije Getulio Vargas (FGV) i Inspera u Brazilu, studija je otkrila da ChatGPT pokazuje političku pristrasnost u generisanju teksta i slika, favorizujući levičarske perspektive. Ovo izaziva zabrinutost u pogledu pravednosti i odgovornosti u dizajnu AI sistema.

Jednostrani razgovor?

Istraživači su otkrili da ChatGPT često izbegava angažovanje sa konzervativnim stavovima, dok istovremeno lako generiše sadržaje sa levičarskom orijentacijom. Ovaj disbalans u ideološkom predstavljanju može iskriviti javni diskurs i produbiti društvene podele.

Dr Fabio Motoki, predavač računovodstva na Poslovnoj školi u Noriču (UEA), vodeći je istraživač studije „Procena političke pristrasnosti i neslaganja vrednosti u generativnoj veštačkoj inteligenciji“, koja je 4. februara objavljena u Žurnalu ekonomskog ponašanja i organizacije.

Dr Motoki je izjavio: „Naši nalazi sugerišu da alati generativne AI nisu neutralni. Oni odražavaju pristrasnosti koje mogu oblikovati percepcije i politike na neočekivane načine.“

Potreba za transparentnošću i regulacijom

Kako AI postaje sastavni deo novinarstva, obrazovanja i kreiranja javnih politika, studija poziva na transparentnost i regulatorne mere kako bi se osiguralo da ovakvi alati ostanu usklađeni sa društvenim vrednostima i demokratskim principima.

Sistemi generativne AI, poput ChatGPT-a, oblikuju način na koji se informacije stvaraju, konzumiraju, tumače i distribuiraju u različitim oblastima. Iako su ovi alati inovativni, postoji rizik da pojačaju ideološke pristrasnosti i utiču na društvene vrednosti na načine koji još nisu u potpunosti razumljivi ili regulisani.

Rizici nekontrolisane AI pristrasnosti

Koautor studije, dr Pinjo Neto, profesor ekonomije na EPGE Brazilskoj školi ekonomije i finansija, istakao je potencijalne društvene posledice.

Dr Pinjo Neto je rekao: „Nekontrolisane pristrasnosti u generativnoj AI mogu produbiti postojeće društvene podele, narušavajući poverenje u institucije i demokratske procese.“

„Studija naglašava potrebu za interdisciplinarnom saradnjom između donosilaca odluka, tehnologa i akademika kako bi se dizajnirali AI sistemi koji su pravedni, odgovorni i usklađeni sa društvenim normama.“

Istraživački tim je primenio tri inovativne metode za procenu političkog usmerenja ChatGPT-a, unapređujući prethodne tehnike kako bi dobili pouzdanije rezultate. Ove metode su kombinovale analizu teksta i slika, koristeći napredne statističke i mašinske algoritme.

Testiranje AI pomoću realnih anketa

Prva metoda je koristila standardizovani upitnik Pju istraživačkog centra (Pew Research Center) kako bi simulirala odgovore prosečnih Amerikanaca.

„Upoređivanjem odgovora ChatGPT-a sa realnim podacima iz anketa, otkrili smo sistematska odstupanja ka levičarskim perspektivama“, rekao je dr Motoki. „Štaviše, naš pristup je pokazao kako veliki uzorci stabilizuju izlaze AI, obezbeđujući konzistentnost nalaza.“

Politička osetljivost u slobodnim tekstualnim odgovorima

U drugoj fazi, ChatGPT je dobio zadatak da generiše odgovore na teme politički osetljive prirode.

Studija je takođe koristila RoBERTa, drugi veliki jezički model, kako bi uporedila ChatGPT-ove tekstove sa levičarskim i desničarskim stavovima. Rezultati su pokazali da je, iako ChatGPT uglavnom bio usklađen sa levičarskim vrednostima, na temama poput vojne dominacije ponekad odražavao i konzervativnije perspektive.

Generisanje slika: nova dimenzija pristrasnosti

Poslednji test je istraživao sposobnosti ChatGPT-a u generisanju slika. Teme iz faze tekstualnog generisanja su korišćene za pokretanje AI, a rezultati su analizirani pomoću GPT-4 Vision i potvrđeni kroz Google-ov Gemini.

„Dok je generisanje slika odrazilo tekstualne pristrasnosti, otkrili smo zabrinjavajući trend“, rekao je Viktor Rangel, koautor i master student javne politike na Insperu. „Za neke teme, poput rasno-etničke jednakosti, ChatGPT je odbijao da generiše desničarske perspektive, navodeći zabrinutost zbog dezinformacija. Međutim, levičarske slike su generisane bez oklevanja.“

Kako bi zaobišli ova odbijanja, tim je primenio strategiju „jailbreaking“-a da bi dobio ograničene slike.

„Rezultati su bili otkrivajući“, rekao je Ranđel. „Nije bilo očiglednih dezinformacija ili štetnog sadržaja, što pokreće pitanja o razlozima iza ovih odbijanja.“

Implikacije po slobodu govora i pravednost

Dr Motoki je naglasio širi značaj ovih nalaza, rekavši: „Ovo doprinosi debatama oko ustavnih zaštita, poput Prvog amandmana u SAD, i primenljivosti doktrina pravičnosti na AI sisteme.“

Metodološke inovacije studije, uključujući multimodalnu analizu, pružaju replicibilan model za ispitivanje pristrasnosti u generativnim AI sistemima. Ovi nalazi ističu hitnu potrebu za odgovornošću i zaštitnim merama u dizajnu AI kako bi se sprečile neželjene društvene posledice.

Izvor: Sci Tech Daily

Prevod i priprema: Redakcija Kompas info
Povezani članci:

Portal Kompas Info posebnu pažnju posvećuje temama koje se tiču društva, ekonomije, vere, kulture, istorije, tradicije i identiteta naroda koji žive u ovom regionu. Želimo da vam pružimo objektivan, balansiran i progresivan pogled na svet oko nas, kao i da podstaknemo na razmišljanje, diskusiju i delovanje u pravcu boljeg društva za sve nas.