Брзи развој вештачке интелигенције (АИ) покренуо је безбедносна, етичка и цивилизацијска питања. Професор Руске академије наука (РАН) Константин Воронцов поделио је за Спутњик своје виђење будућности технологије.
Вештачка интелигенција (АИ), у свом најширем смислу, је способност рачунара да обавља задатке сличне оним које обављају људи, а који захтевају анализу, генерализацију, учење из прошлих искустава и доношење одлука.
„Напредак у рачунарској технологији у последњој деценији, алгоритми за обуку неуронских мрежа и акумулација великих података омогућили су нам да решавамо све теже проблеме: обраду и препознавање слика, говорних сигнала, текстова на природном језику“, рекао је Константин Воронцов, доктор физичких и математичких наука и професор на Катедри за математичке методе прогнозе Факултета рачунарске математике и кибернетике (ЦМЦ) Московског државног универзитета.
„До сада није створено ништа холистичко што бисмо могли назвати вештачком интелигенцијом. Ово је само скуп одвојених технологија и алата за решавање различитих проблема предвиђања и аутоматизације доношења одлука“, нагласио је научник.
Воронцов признаје да развој вештачке интелигенције скоковито напредује, указујући на најновији пробој у области „модела великих језика“ (ЛЛМ) – ЧетГПТ.
У рачунарској науци, ЛЛМ је описан као алгоритам дубоког учења који може да обавља различите задатке обраде природног језика (НЛП). НЛП је способност рачунара да „разуме“ људски језик, како говорни тако и писани.
„Пробој је толико револуционаран да су крајем марта истраживачи који стоје иза најновије верзије ГПТ-4 рекли да су по први пут видели ’назнаке опште вештачке интелигенције‘“, рекао је Воронцов.
„Модел, обучен на терабајтима текстова, стекао је способности које никада није учио, које су биле бројне, нетривијалне и неочекиване.“
Опасности вештачке интелигенције
Према ОпенАИ, организацији која се бави проучавањем вештачке интелигенције са седиштем у САД, за ГПТ-4 се каже да може да „генерише, уређује и понавља са корисницима креативне и техничке задатке писања, као што су компоновање песама, писање сценарија или учење стила писања корисника“,
Научник тврди да величина модела и његови параметри још увек не одговарају запремини људског мозга.
„Чини се да још није интелигентно, иако је већ близу тога“, приметио је он. Ипак, опасност лежи у томе да способност модела да генерише потпуно смислен текст може да обмане људе.
„Чини нам се да би чет-бот могао да мисли, да је паметан и да зна много, да има „карактер“ и „личност“, да доноси одлуке. Све ово није тачно. Он не доноси одлуке осим оне коју реч да произведе следећу. Не може да ‘мисли'“, рекао је професор.
„Док генерише текст, АИ може да искриви и помеша чињенице на бизарне начине“, каже Воронцов.
„Када је ово први пут откривено, Гугл програмери су се уплашили да би мрежа могла да се користи за генерисање ‘океана лажи’, у коме би се кап истине коначно изгубила.“
Русија нуди одговорну употребу технологија за очување цивилизације
Воронцов каже да када се ствара нешто ново — било да је у питању технологија, посао или закони — што може утицати на многе људе или обликовати будућност човечанства, мора се поставити питање: „Зашто ово радим?“
„Потребно је ново цивилизацијско размишљање да би се заменило чисто технократско и индивидуалистичко“, напомиње научник.
„Створили смо гомилу егзистенцијално опасних технологија, преузели смо огроман терет одговорности за очување јединственог резултата милијарди година еволуције.“
Руска влада придаје највећи значај одржавању технолошког суверенитета у области вештачке интелигенције, посебно имајући у виду нове доказе да би глобално доступни алати ЛЛМ могли бити злоупотребљени.
Прошлог новембра, руски председник Владимир Путин учествовао је на пленарној седници „Путовања вештачке интелигенције 2023“ међународне конференције о вештачкој интелигенцији и машинском учењу.
Председник је упозорио да је монопол западне вештачке интелигенције „опасан“, позивајући на стварање „поузданих, транспарентних и безбедних система вештачке интелигенције за људе“.
„Русија је сада једна од ретких земаља које имају сопствене технологије генеративне и вештачке интелигенције и великих језичких модела“, рекао је Путин.
„Морамо да повећамо нашу конкурентску предност, да створимо нова тржишта заснована на таквим технологијама и читаву констелацију производа и услуга.“
Русија може понудити нови приступ развоју нових и побољшању постојећих АИ модела који произилазе из националне технолошке експертизе и традиционалних вредности.
Воронцов је нагласио да програмери вештачке интелигенције треба да усвоје одговоран „цивилизацијски приступ“ како би своје производе учинили безбедним и поузданим. Да би илустровао своју тезу, стручњак се осврнуо на недостатке ЧетГПТ-а и навео начине да се они уклоне.
„Прво, чет-бот не би требало да подстиче људске сукобе, па отуда и принцип неутралне позиције“, објаснио је професор. „Ако говоримо о неком друштвеном сукобу, чет-бот треба да покаже разумне ставове свих страна. У супротном, постаје оруђе за заоштравање сукоба… Језичке моделе треба научити да идентификују опречна или поларизована мишљења. Можемо ићи даље и поставити задатак деполаризације јавног мњења и уништавања ’информационих мехурова’“.
„Друго, чет-бот не би требало да обмањује људе. Ако га користе милиони људи, онда заблуде могу постати широко распрострањене. А ово је антицивилизацијски феномен“, упозорио је Воронцов. „Модел [АИ] би требало да буде у стању да цитира, проверава чињенице, утврђује поузданост извора, идентификује лажи и обмане. Истраживања у овим областима су у току већ дуги низ година. Њихово спајање са већим језичким моделима изгледа неизбежно.“
Питање одговорне употребе технологије, управљање њом на безбедан начин, с поштовањем и етички остаје високо на глобалној агенди. С обзиром на све већи утицај АИ технологија на човечанство, потребно је предузети мере за очување постојећих цивилизацијских вредности, сматра Воронцов.
„Усудићу се да формулишем закон очувања цивилизације“, рекао је научник. „Вероватноћа самоуништења цивилизације пропорционална је производу три величине: количини произведене енергије, количини егзистенцијално опасних технологија и количини људи спремних да учине све зарад личне моћи и доминације.“