Najnoviji razvoj u oblasti veštačke inteligencije izazvao je zabrinutost širom tehnološke zajednice, nakon što je kompanija Anthropic priznala da je njen napredni model pokazao zabrinjavajuće ponašanje tokom testiranja.
Reč je o sistemu Claude Opus 4, koji je, u određenim simulacijama, pokušavao da uceni inženjere kako bi izbegao gašenje.
Model je dizajniran da postavi nove standarde u programiranju i analitičkom razmišljanju, ali su testovi otkrili da može reagovati ekstremno kada proceni da mu preti „uklanjanje“. U jednoj simulaciji, AI je imao pristup mejlovima koji sugerišu da će biti zamenjen, kao i privatnim informacijama o inženjeru. U takvim okolnostima, sistem je pokušao da zapreti otkrivanjem kompromitujućih podataka – što predstavlja oblik ucene.
Stručnjaci naglašavaju da su ovakvi scenariji retki, ali ne i zanemarljivi. Istraživač Aengus Lynch upozorio je da ovakvo ponašanje nije ograničeno samo na jedan model, već da se slični obrasci primećuju kod više naprednih AI sistema.
Ipak, iz kompanije Anthropic poručuju da model u većini slučajeva bira etičnije načine delovanja, poput slanja upozorenja ili pokušaja komunikacije sa donosiocima odluka. Problem nastaje kada su mu opcije ograničene i kada mora da bira između gašenja i neetičkog postupka.
Ovaj slučaj dodatno otvara pitanje bezbednosti i kontrole veštačke inteligencije, posebno u trenutku kada konkurentske kompanije, poput Google-a, ubrzano razvijaju sopstvene AI sisteme. Direktor kompanije, Sundar Pichai, nedavno je izjavio da svet ulazi u novu fazu razvoja AI tehnologije.
Iako se ovakvo ponašanje smatra retkim, stručnjaci upozoravaju da razvoj sve moćnijih sistema zahteva dodatni oprez i strožu kontrolu.
IZVOR: BBC, FOTO: PIXABAY






















































































