Najnoviji AI modeli kompanije OpenAI, GPT o3 i o4-mini, pokazali su značajan napredak u sposobnosti rezonovanja, ali i zabrinjavajući porast sklonosti ka tzv. halucinacijama – izmišljanju činjenica.
Iako su ovi modeli osmišljeni da oponašaju ljudsko razmišljanje, rezultati ukazuju na ozbiljan problem u njihovoj pouzdanosti.
U poređenju sa starijim modelom GPT o1, koji je imao uspeha na naučnim testovima iz hemije i matematike, GPT o3 je u testovima pokazao dvostruko veću stopu halucinacija – čak 33% odgovora bilo je netačno. Još gore, manji model o4-mini “halucinirao” je u 48% slučajeva. Na testovima opšteg znanja, ta brojka je skočila na 51% za GPT o3 i čak 79% za o4-mini.
OpenAI navodi da su složeniji odgovori i pokušaji rezonovanja glavni uzrok ovih grešaka, jer modeli sve češće nagađaju i “popunjavaju praznine”, što lako prelazi granicu između teorije i fikcije. To postaje posebno rizično s obzirom na to da se veštačka inteligencija već koristi u školama, zdravstvu i administraciji.
Kao primer, jedan od modela je netačno tvrdio da je Abraham Lincoln imao sopstveni podcast. Takve greške ozbiljno podrivaju poverenje korisnika u AI sisteme koji bi trebalo da olakšaju, a ne zakomplikuju svakodnevni rad.
Dok OpenAI i konkurenti poput Google-a i Anthropic-a rade na unapređenju preciznosti, korisnicima ostaje samo jedno – oprez.
Nijedan AI odgovor ne bi trebalo uzimati zdravo za gotovo.
IZVOR: ZIMO, CHICAGO DESAVANJA, FOTO: PEXELS