OpenAI je objavio detalje svog novog okvira spremnosti koji ima za cilj da ublaži rizike od veštačke inteligencije i obezbedi prioritet bezbednom i odgovornom razvoju modela.
Kao deo AI kompanije koja proširuje svoje bezbednosne procese, osnovana je nova savetodavna grupa za bezbednost koja će davati preporuke rukovodstvu. Najvažnije, odbor će zadržati pravo veta i može odlučiti da spreči objavljivanje AI modela čak i ako rukovodstvo proglasi AI bezbednom.
Ova vest dolazi na kraju veoma uzbudljive godine za OpenAI. Pored brzog razvoja, kompanija je takođe doživela turbulencije u svom izvršnom odboru, pri čemu je Sam Altman smanjen, a zatim ponovo postavljen na mesto generalnog direktora kompanije u roku od jedne nedelje u novembru 2023.
Programer ChatGPT-a kaže u svom okviru: „Proučavanje graničnih rizika od veštačke inteligencije je daleko od onoga što je moguće i gde treba da budemo. Da bismo rešili ovaj jaz i sistematizovali naše razmišljanje o bezbednosti, usvajamo početnu verziju našeg okvira pripravnosti.
On opisuje procese OenAI za praćenje, procenu, predviđanje i zaštitu od rizika koje predstavljaju sve moćniji modeli veštačke i nteligencije.
„Pod katastrofalnim rizikom podrazumevamo svaki rizik koji bi mogao da dovede do stotine milijardi dolara ekonomske štete ili dovede do teške štete ili smrti mnogih pojedinaca – ovo uključuje, ali nije ograničeno na, egzistencijalni rizik“, navodi kompanija.
Sistemizujemo naše razmišljanje o bezbednosti sa našim okvirom pripravnosti, živim dokumentom (trenutno u beta verziji) koji detaljno opisuje tehničke i operativne investicije koje usvajamo da bismo vodili bezbednost našeg graničnog razvoja modela.
IZVOR: PSPRESS I FOTO: PRINTSCREEN