Novo istraživanje Univerziteta Penn State otkriva neočekivanu osobinu popularnog AI sistema ChatGPT – u određenim situacijama model daje tačnije odgovore kada mu korisnici postavljaju direktna i gruba pitanja, u poređenju sa ljubazno formulisanima.
Studija je analizirala više od 250 različitih upita, čiji je ton varirao od izuzetno uljudnog do otvoreno nepristojnog. Rezultati pokazuju da su najgrublji zahtevi dovodili do tačnosti odgovora od oko 84,8%, što je za približno četiri procentna poena više nego kod najuljudnijih formulacija.
Istraživači objašnjavaju da oštriji ton često generiše kraće i preciznije instrukcije, što AI modelu omogućava bolju koncentraciju na zadatak.
Ipak, stručnjaci naglašavaju da ovo ne znači da korisnici treba namerno da budu nepristojni. Naprotiv, normalizacija grubog ponašanja prema veštačkoj inteligenciji nosi potencijalne društvene posledice – može uticati na način komunikacije među ljudima, ali i na razvoj budućih AI sistema u obrazovanju, poslovnom okruženju i svakodnevnom životu.
Ovo otkriće otvara i nova pitanja o interakciji ljudi sa tehnologijom. Da li AI postaje alat koji “nagrađuje” direktnost i grubu komunikaciju, ili postoji balans između efikasnosti i etike? Istraživači pozivaju na oprez i promišljen pristup kako bi veštačka inteligencija ostala sigurna i korisna za sve korisnike, bez podsticanja loših društvenih obrazaca.
U svetu gde AI postaje sve prisutniji, ovi rezultati pokazuju da način na koji komuniciramo sa digitalnim asistentima može oblikovati ne samo rezultate u tehnologiji, već i naše svakodnevne navike i međuljudske odnose.
IZVOR: B92, FOTO: PEXELS
























































































