ChatGPT4 po mëson të kamuflohet mirë: tani është në gjendje të zhvillojë një bisedë të vërtetë dhe në 54% të rasteve ngatërrohet me një qenie njerëzore.
Simone Valtieri
Imagjinoni të ardhmen e përshkruar në filmat fantastiko-shkencor si Ajo ose seriali televiziv Black Mirror, në të cilin është e pamundur të dallohet inteligjenca artificiale nga njerëzit. Epo, një skenar i tillë mund të jetë më afër sesa mendojmë.
Kjo thuhet nga një studim i fundit nga Universiteti i Kalifornisë, San Diego, i cili tregoi se si modelet më të avancuara gjuhësore – para së gjithash GPT-4 e OpenAI – mund të ngatërrojnë lehtësisht përdoruesit, duke e bërë të vështirë dallimin midis përgjigjeve të formuluara nga një person dhe ato të krijuara nga një LLM ( Large Language Model ).
Test zbulues
Për të vlerësuar nëse inteligjenca artificiale mund të sillet si mendje që mendojnë, studiuesit përdorën një version të përditësuar të Testit të famshëm Turing , krijuar nga matematikani dhe kriptografi britanik Alan Turing (1912-1954). Eksperimentet u bazuan në një sërë dialogësh midis një “hetuesi” dhe një “përgjigje”. E para duhej të përcaktonte nëse homologu ishte gjithashtu njerëzor ose nëse ishte në vend të kësaj një entitet artificial.
Në këtë kontekst, GPT-4 ishte në gjendje të mashtronte më shumë se gjysmën e atyre që ishin të përfshirë drejtpërdrejt, një rezultat i marrë pavarësisht nga disa kufizime në kontrollin e variablave eksperimentale, të tilla si, për shembull, mundësia që pjesëmarrësit e testit të kishin paragjykime se si duhet t’i përgjigjen një makineria ose mungesa e informacionit në lidhje me bashkëbiseduesin (gjinia, mosha, raca), aspekte që studiuesit thanë se donin t’i përfshinin në eksperimentet e ardhshme.
Ju jeni të mashtruar
Në detaje, ata që iu nënshtruan testit mund të ndërveprojnë me tre modele të ndryshme LLM: GPT-4, GPT 3.5 dhe ELIZA. Ndërsa kjo e fundit njihej më lehtë, duke mashtruar vetëm 22% të përdoruesve, dy versionet e ChatGPT demonstruan një aftësi befasuese për t’u maskuar si një qenie që mendon , duke shënuar respektivisht 50% dhe 54% suksese. Pyetësit shpesh nuk ishin në gjendje të dallonin nëse po flisnin me një person real apo me një inteligjencë artificiale .
Biseda të bukura
Duke i bërë këto rezultate edhe më domethënëse ishte fakti se bisedat mund të zgjasin deri në pesë minuta dhe të mbulonin një gamë të gjerë temash, duke përjashtuar disa tema të filtruara nga studiuesit. Aftësia e ChatGPT për të mbajtur një bisedë të rrjedhshme dhe të natyrshme ishte atuti i AI. Megjithatë, për sa i përket rastit në të cilin dy qenie njerëzore po bisedonin, është interesante të theksohet se si ata e njohën njëri-tjetrin në dy nga tre rastet (67%), ndërsa në 33% të mbetur ata që bënë pyetjet besonin se po flisnin. me një chatbot.
Implikime të rrezikshme
Studiuesit po eksplorojnë hipoteza të reja për testet e ardhshme, për shembull testimin e potencialit të AI për të bindur njerëzit të besojnë argumente të rreme, të mbështesin politika specifike ose të dhurojnë para për kauza të ndjeshme. E gjithë kjo ngre pyetje se si kjo teknologji mund të përdoret në mënyrë amorale dhe të papërgjegjshme.
Përdorimi etik
Fakti që LLM-të janë në gjendje të simulojnë biseda të tilla bindëse, së shpejti do t’i bëjë ndërveprimet në internet jo të besueshme, duke rritur mundësinë për t’u mashtruar ose ndikuar nga sisteme gjithnjë e më komplekse. Prandaj, skenarët e këtij lloji do të kërkojnë rregulla dhe masa paraprake që janë të afta të menaxhojnë një revolucion të aftë për të përmbysur fusha të ndryshme të shoqërisë.