Спроведена у сарадњи са истраживачима из Фондације Гетулио Варгас (FGV) и Инсперa у Бразилу, студија је открила да ChatGPT показује политичку пристрасност у генерисању текста и слика, фаворизујући левичарске перспективе. Ово изазива забринутост у погледу праведности и одговорности у дизајну AI система.
Једнострани разговор?
Истраживачи су открили да ChatGPT често избегава ангажовање са конзервативним ставовима, док истовремено лако генерише садржаје са левичарском оријентацијом. Овај дисбаланс у идеолошком представљању може искривити јавни дискурс и продубити друштвене поделе.
Др Фабио Мотоки, предавач рачуноводства на Пословној школи у Норичу (UEA), водећи је истраживач студије „Процена политичке пристрасности и неслагања вредности у генеративној вештачкој интелигенцији“, која је 4. фебруара објављена у Журналу економског понашања и организације.
Др Мотоки је изјавио: „Наши налази сугеришу да алати генеративне AI нису неутрални. Они одражавају пристрасности које могу обликовати перцепције и политике на неочекиване начине.“
Потреба за транспарентношћу и регулацијом
Како AI постаје саставни део новинарства, образовања и креирања јавних политика, студија позива на транспарентност и регулаторне мере како би се осигурало да овакви алати остану усклађени са друштвеним вредностима и демократским принципима.
Системи генеративне AI, попут ChatGPT-а, обликују начин на који се информације стварају, конзумирају, тумаче и дистрибуирају у различитим областима. Иако су ови алати иновативни, постоји ризик да појачају идеолошке пристрасности и утичу на друштвене вредности на начине који још нису у потпуности разумљиви или регулисани.
Ризици неконтролисане AI пристрасности
Коаутор студије, др Пињо Нето, професор економије на EPGE Бразилској школи економије и финансија, истакао је потенцијалне друштвене последице.
Др Пињо Нето је рекао: „Неконтролисане пристрасности у генеративној AI могу продубити постојеће друштвене поделе, нарушавајући поверење у институције и демократске процесе.“
„Студија наглашава потребу за интердисциплинарном сарадњом између доносилаца одлука, технолога и академика како би се дизајнирали AI системи који су праведни, одговорни и усклађени са друштвеним нормама.“
Истраживачки тим је применио три иновативне методе за процену политичког усмерења ChatGPT-а, унапређујући претходне технике како би добили поузданије резултате. Ове методе су комбиновале анализу текста и слика, користећи напредне статистичке и машинске алгоритме.
Тестирање AI помоћу реалних анкета
Прва метода је користила стандардизовани упитник Пју истраживачког центра (Pew Research Center) како би симулирала одговоре просечних Американаца.
„Упоређивањем одговора ChatGPT-а са реалним подацима из анкета, открили смо систематска одступања ка левичарским перспективама“, рекао је др Мотоки. „Штавише, наш приступ је показао како велики узорци стабилизују излазе AI, обезбеђујући конзистентност налаза.“
Политичка осетљивост у слободним текстуалним одговорима
У другој фази, ChatGPT је добио задатак да генерише одговоре на теме политички осетљиве природе.
Студија је такође користила RoBERTa, други велики језички модел, како би упоредила ChatGPT-ове текстове са левичарским и десничарским ставовима. Резултати су показали да је, иако ChatGPT углавном био усклађен са левичарским вредностима, на темама попут војне доминације понекад одражавао и конзервативније перспективе.
Генерисање слика: нова димензија пристрасности
Последњи тест је истраживао способности ChatGPT-а у генерисању слика. Теме из фазе текстуалног генерисања су коришћене за покретање AI, а резултати су анализирани помоћу GPT-4 Vision и потврђени кроз Google-ов Gemini.
„Док је генерисање слика одразило текстуалне пристрасности, открили смо забрињавајући тренд“, рекао је Виктор Рангел, коаутор и мастер студент јавне политике на Инсперу. „За неке теме, попут расно-етничке једнакости, ChatGPT је одбијао да генерише десничарске перспективе, наводећи забринутост због дезинформација. Међутим, левичарске слике су генерисане без оклевања.“
Како би заобишли ова одбијања, тим је применио стратегију „jailbreaking“-а да би добио ограничене слике.
„Резултати су били откривајући“, рекао је Ранђел. „Није било очигледних дезинформација или штетног садржаја, што покреће питања о разлозима иза ових одбијања.“
Импликације по слободу говора и праведност
Др Мотоки је нагласио шири значај ових налаза, рекавши: „Ово доприноси дебатама око уставних заштита, попут Првог амандмана у САД, и применљивости доктрина правичности на AI системе.“
Методолошке иновације студије, укључујући мултимодалну анализу, пружају реплицибилан модел за испитивање пристрасности у генеративним AI системима. Ови налази истичу хитну потребу за одговорношћу и заштитним мерама у дизајну AI како би се спречиле нежељене друштвене последице.