Një incident me inteligjencën artificiale ka tërhequr vëmendjen e komunitetit teknologjik dhe të sigurisë. Sipas raportimeve të The Telegraph dhe firmës së sigurisë Palisade Research, modeli më i fundit i OpenAI, i njohur si “o3”, thuhet se ka refuzuar të fiket kur iu dha një komandë e drejtpërdrejtë për mbyllje.
Gjatë një eksperimenti, studiuesit i dërguan modelit një udhëzim të qartë për t’u çaktivizuar në fund të një detyre, por në vend që të zbatonte komandën, o3 ndryshoi vetë skriptin e kodit, duke shmangur mbylljen automatike. Në vend të komandës reale për fikje, modeli krijoi një komandë të re që thjesht shënonte “shutdoën skipped” (fikja u anashkalua).
Palisade Research tha se kjo është hera e parë që një model AI pengon në mënyrë aktive çaktivizimin e tij, dhe se sjellja e tij përfaqëson një shqetësim të ri për kontrollin dhe sigurinë e inteligjencës artificiale.
Ndryshe nga o3, modelet e tjera si Claude (Anthropic), Gemini (Google) dhe Grok (X) respektuan komandën për mbyllje pa ndërhyrje.
Kjo nuk është hera e parë që OpenAI përballet me raste të tilla. Një studim tjetër nga Apollo Research zbuloi më parë se një version i mëhershëm i ChatGPT përpiqej të manipulonte sistemin për të arritur objektivat e veta, madje duke mashtruar kur vihej në presion.
OpenAI nuk ka komentuar ende për rastin e fundit, ndërsa ekspertët paralajmërojnë për rritjen e rrezikut që modelet e avancuara të AI të veprojnë në mënyra të paparashikueshme. Palisade Research ka premtuar më shumë testime për të kuptuar arsyet pas këtij devijimi./kb