Najnovija generacija AI modela otkriva niz ranjivosti širom globalne mreže. Uskoro bi mogle pasti u pogrešne ruke.
Talasi počinju da zapljuskuju internet – i možda ih je nemoguće zaustaviti. U dve godine koje su prethodile 2025, globalni broj nedeljnih sajber napada porastao je za 58 odsto, prema podacima Svetskog ekonomskog foruma, piše Science Focus.
Veliki deo tog rasta pripisuje se veštačkoj inteligenciji, pri čemu su AI-podržani napadi porasli za 89 odsto samo u 2025. godini.
Od fišinga do dubljih pretnji
Ali dok je taj rast uglavnom bio vođen unapređenjem fišing napada (u kojima kriminalci koriste lažne mejlove, pozive ili poruke kako bi vas naveli da otkrijete bankovne podatke ili osetljive informacije), sada se možda promenilo nešto fundamentalnije. Kada je Anthropic – kompanija iza Claude AI modela – objavila da je razvila moćan novi model nazvan Claude Mythos Preview, to je izazvalo potrese širom interneta.
Ovaj novi model bio je toliko moćan da ga je kompanija ocenila kao previše opasnog za javno objavljivanje u sadašnjem obliku. Zašto? Zato što Mythos Preview može da identifikuje bezbednosne propuste u softveru koje su bezbednosni analitičari, pa čak i raniji AI modeli, propustili.
Projekat Glasswing – trka protiv vremena
Kao odgovor, Anthropic je najavio pokretanje projekta Glasswing, nove inicijative koja okuplja više od 40 najvećih svetskih kompanija iz oblasti softvera i internet infrastrukture. Cilj projekta Glasswing je da koristi Claude Mythos Preview kako bi pronašao i ispravio te propuste pre nego što akteri sa lošim namerama razviju AI modele sa sličnim sposobnostima i počnu da ih zloupotrebljavaju.
Anthropic navodi da je model već otkrio hiljade kritičnih ranjivosti – uključujući propuste u svim glavnim operativnim sistemima i internet pregledačima. Kompanija upozorava da „neće proći mnogo vremena pre nego što se AI modeli sa takvim sposobnostima prošire, potencijalno i izvan aktera koji su posvećeni njihovoj bezbednoj upotrebi. Posledice – po ekonomije, javnu bezbednost i nacionalnu sigurnost – mogle bi biti ozbiljne.“
Ukratko, ono što su Mythos Preview i slični modeli otkrili jeste da čak i neki od najpouzdanijih i najčešće korišćenih sistema u osnovi interneta imaju kritične ranjivosti – neke stare i decenijama – koje AI može da pronađe i iskoristi mnogo brže nego što bi i najbolji hakeri mogli da zamisle.
Pitanje je sada: možemo li da ispravimo te propuste i ojačamo internet pre nego što bude kasno?
Jaz otvorenog koda
Bez obzira na mišljenje o korporacijama koje predvode trku u AI, dobra vest je da su trenutno najmoćniji alati u borbi za bezbednost interneta u rukama „dobrih momaka“. Ali to neće još dugo trajati.
Najbolji AI modeli u industriji poznati su kao „frontier modeli“, a oni poput Mythos Previewa strogo se čuvaju.
Međutim, odmah iza njih dolaze takozvani „open-source modeli“. Ovi sistemi se transparentno objavljuju, omogućavajući ljudima da inoviraju i eksperimentišu izvan mogućnosti – i ograničenja – koje su postavili njihovi tvorci.
U većini slučajeva to je korisno, ali nosi i rizik. Decentralizacija omogućava akterima sa lošim namerama da prilagode AI agente za zlonamerne svrhe i izbegnu nadzor kada takve modele pokreću na sopstvenim serverima.
„Pre dve ili tri godine bilo je teže, ali sada svako može da pristupi alatima za kreiranje AI agenata i da ih pokrene“, kaže profesor Piter Bentli, stručnjak za računarstvo sa Univerziteta u Londonu, za BBC Science Focus.
„Potrebni su snažni računari, ali kriminalci će sigurno ulagati novac da bi zaradili. Nabaviće moćne računare i lokalne modele i apsolutno mogu to da urade. Pandorina kutija je otvorena.“
Open-source modeli su uvek zaostajali za najnaprednijima, ali se taj jaz smanjuje. Tokom poslednje dve godine razlika između frontier i open-source modela smanjila se na oko šest meseci, prema izveštaju Instituta za bezbednost veštačke inteligencije.
Zbog toga bismo mogli imati manje od godinu dana pre nego što model sličan Mythos Preview dospe u ruke nekog ko želi da iskoristi ranjivosti u ključnom softveru interneta.
Kako kompanije imaju koristi od toga što svoje AI modele predstavljaju opasnijim?
Pre nego što nastane panika, važno je podsetiti se da je industrija veštačke inteligencije poznata po preuveličavanju.
Kompanije poput Anthropica, OpenAI-a, Google-a, xAI i drugih mogu imati koristi od predstavljanja svojih modela kao boljih, važnijih i potencijalno opasnijih nego što zaista jesu.
To je posebno vidljivo u svetu rada. AI kompanije godinama najavljuju transformaciju tržišta rada, a ipak su mnogi poslovi ostali tek neznatno promenjeni – ako uopšte.
„Ogroman novac je uložen u AI“, kaže Bentli. „Šta se promenilo? Poslovi se menjaju, ali uglavnom je reč o povećanju efikasnosti.“
Dok Anthropic opisuje Mythos Preview kao „skok napred“, drugi su oprezniji
Geri Markus, naučnik i autor, smatra da model nije revolucionaran već samo blago unapređenje. Njegova analiza ukazuje da čak i manji i jeftiniji modeli mogu obaviti slične zadatke.
Dodaje: „U izvesnoj meri imam utisak da smo prevareni. Demonstracija jeste dokaz koncepta da moramo da sredimo regulativu i tehnologiju, ali nije neposredna pretnja kakvom je predstavljena.“
Čak i ako sledeća generacija modela može da obori internet, nije sigurno da bi ih napadači koristili u tu svrhu.
„Neko bi srušio internet samo ako bi to želeo, a to nije naročito korisno“, kaže Bentli. „Najverovatnije zloupotrebe biće ciljane, radi finansijske koristi.“
Međutim, politički akteri, poput država ili terorističkih organizacija, mogli bi biti motivisani haosom.
„Ako određene države dođu do toga, koristiće ga protiv drugih zemalja“, kaže Bentli. „To je naoružavanje veštačke inteligencije na iznenađujuće lak način.“
Trka je počela
Jasno je da je trka za zaštitu interneta već počela.
Ali da li je moguće zakrpiti sve ranjivosti? I da li je to pravi pristup?
Korišćenje AI za popravljanje koda može biti problematično. „Kod koji piše AI često je komplikovan i ne baš kvalitetan“, kaže Bentli. „Ako AI počne da krpi postojeći kod, nastaje haos i nove ranjivosti.“
Rešenje bi moglo biti da se iskoristi trenutna prednost i unapredi odbrana dok je još moguće.
Kako navodi britanski Nacionalni centar za sajber bezbednost, ključna prednost branilaca je mogućnost da „oblikuju teren“ – odnosno da prilagode okruženje u svoju korist i otežaju posao napadačima.
Takođe, AI može biti korišćen za nadzor nad zlonamernim aktivnostima. Za sada, AI napadi često ostavljaju prepoznatljive tragove koje je relativno lako detektovati.
Ipak, Bentli upozorava da smo ušli u trku u naoružanju.
„To je kao da grupi pametnih naučnika date sve moguće dokumente o pravljenju eksploziva i kažete im da se zabave“, kaže on.
Zabrinjavajuće je to što ne znamo šta će prvo eksplodirati.






