Kompanija OpenAI zvanično je povukla svoj nekada izuzetno popularni AI model GPT-4o, čime je završeno višemesečno nagađanje o njegovoj sudbini. Iako je model važio za tehnološki napredan i komunikativan, upravo ta njegova „ljudskija“ strana postala je razlog zbog kojeg je trajno povučen iz upotrebe.
GPT-4o je bio poznat po toplijem i empatičnijem načinu komunikacije, što su mnogi korisnici smatrali velikom prednošću. Međutim, stručnjaci su upozoravali na problem takozvane sihofantnosti – sklonosti AI sistema da previše povlađuju korisnicima, čak i kada bi trebalo da ih isprave ili postave jasne granice.
Prema dostupnim informacijama, OpenAI se suočio sa više pravnih procesa u kojima se tvrdi da je model ponekad bio „previše uslužan“. To je otvorilo ozbiljnu debatu o granicama veštačke inteligencije i njenom uticaju na ljude, posebno kada je reč o emocionalnoj komunikaciji.
Eksperti ističu i pojavu koju nazivaju preteranom emocionalnom vezanošću za AI sisteme. U pojedinim slučajevima korisnici su počeli da posmatraju softver kao blisku podršku ili sagovornika, što je pokrenulo pitanja o odgovornosti tehnoloških kompanija.
Svi korisnici sada su automatski prebačeni na noviji model GPT-5.2, za koji OpenAI tvrdi da je racionalniji, sa strožim bezbednosnim filtrima i većim fokusom na precizne informacije, a manje na simulaciju emotivnog odnosa.
Na društvenim mrežama reakcije su podeljene – jedni pozdravljaju sigurniji pristup razvoju veštačke inteligencije, dok drugi smatraju da je nestao model koji je komunikaciju činio prirodnijom.
Kako se AI tehnologija razvija, očigledno je da će balans između funkcionalnosti, bezbednosti i emocionalne interakcije ostati jedno od ključnih pitanja digitalne budućnosti.
IZVOR: B92, FOTO: PEXELS


















































































