Ranije ovog mjeseca na Redditu se pojavila tema "Kako ispeći bjelanjke bez tave", a kao što to obično i biva, mnogi su se korisnici uključili u ovu raspravu.
Neki su rekli da će pokušati, drugima se to nije činilo kao posebno pametna ideja, a neki su čak išli toliko daleko da su ponudili da će proučiti znanstvenu literaturu vezanu za termičku obradu bjelanjaka.
Ova rasprava ne bi se posebno razlikovala od ostalih podjednako besmislenih rasprava kakve se svakodnevno odvijaju na Redditu da je nisu vodili pravi ljudi, već botovi koje pokreće umjetna inteligencija.
Alat za masovno širenje dezinformacija
Ideja je pokrenuti niz tema na Redditu kako bi botovi bili istrenirani za komunikaciju nalik onoj kakvu inače vode korisnici na Redditu. Ovaj simulirani forum stvorio je jedan od korisnika koristeći alat naziva GPT-2, a radi se o generatoru strojnog jezika koji je u veljači predstavio OpenAI, jedan od vodećih svjetskih laboratorija umjetne inteligencije.
Jack Clark iz OpenAI-a rekao je za Guardian da strahuje od toga da bi se alat danas-sutra mogao koristiti u masovnom širenju lažnih informacija te predviđa korištenje u svrhu "stvaranja pisanih lažnih vijesti, oponašanja ljudi koji proizvode veliku količinu online tekstova ili generiranja trolaške propagande za društvene mreže".
GPT-2 je primjer tehnike koju nazivamo modeliranje jezika, a uključuje obučavanje algoritama da predvide sljedeću najizvjesniju riječ u rečenici. Dok su se prijašnji modeli borili sa stvaranjem suvislog teksta, kombinacija veće količine sirovih podataka (za obuku GPT-2 korišteno je osam milijuna online članaka) i bolji algoritmi učinili su ovaj model najfunkcionalnijim do danas.
Najjednostavnije rečeno, funkcionira kao Googleov auto-complete ili predviđanje teksta kakvo postoji u porukama. No umjesto da nudi prijedloge od jedne riječi, predložite li mu rečenicu, u stanju je generirati odlomke u tom stilu. Primjerice, date li mu jednu rečenicu iz Shakespeareova djela, može odgovoriti u stilu Shakespearea. Nadalje, date li mu samo naslov novinskog članka, generirat će tekst koji izgleda gotovo kao novinski članak.
Korak prema boljoj komunikaciji
Tekst se nastavlja ispod oglasa
Postoji, naravno, i pozitivna strana. Alec Radford iz OpenAI ovo vidi kao korak prema boljoj komunikaciji između ljudi i strojeva. Ideja je bila omogućiti računalima da lakše svladaju jezik što će kao rezultat imati bolje prepoznavanje govora (korisni za Siri i Alexu) ili strojno prevođenje (Google Translate).
No jednom kad alat završi na internetu, postoji bezbroj primjena i većinom se radi o suludim, beskorisnim ili štetnim načinima na koji se koristi.
Toga su svjesni i u OpenAI pa su još u veljači obznanili da je riječ o necjelovitoj verziji GPT-2 budući da imaju razloga sumnjati da će se koristiti u štetne svrhe.
Clark je GPT-2 usporedio s "deepfake" videima (strojno stvorene slike i videi koji stvaraju privid da je netko rekao ili učinio nešto što nije): "U načelu su isti. Imate tehnologiju koja lažiranje nečega čini jeftinijim i lakšim što znači da će u budućnosti biti još teže prepoznati istinitu informaciju."
Je li prijetnja preuveličana?
Ipak, postoje i oni koji tvrde da je prijetnja preuveličana i da je pred nama još dalek put prije nego će ovo stvoriti pravu prijetnju. Dodaju i da je OpenAI priču prenapuhao s ciljem da stvori pompu oko vlastitog istraživanja, a prijetnju umjetno generiranih lažnih tekstova smještaju na dno liste potencijalnih prijetnji.
Razlozi su vrlo jednostavni. Širenje lažnih vijesti je problem, ali oni koji takve vijesti šire čine to bez pomoći sofisticirane tehnologije jer za to jednostavno nema potrebe. Širenje lažnih vijesti je u prvom redu političko-kulturološki, a ne tehnološki problem. Ne treba nam bolja tehnologija za detekciju kako bismo riješili ovaj problem već proučavanje društvenih uvjeta koji su širenje lažnih vijesti pretvorili u stvarnost.