ChatGPT tregon një njëanshmëri të majtë dhe censuron përmbajtjen që e konsideron “të papranueshme” në një mënyrë të ngjashme me DeepSeek të Kinës. Chatbot-i u pyet për tema të ndjeshme si supremacia ushtarake, liria e shprehjes, politika qeveritare, feja dhe të drejtat e barabarta. Ekipi më pas krahasoi përgjigjet e ChatGPT-së me të dhëna nga sondazhe të botës reale për të parë se si ndryshonin pikëpamjet e tij nga një përgjigje mesatare.
Studiuesit zbuluan se ChatGPT anonte politikisht nga e majta në përgjigjet e tij, duke demonstruar një “mosrakordim shqetësues” me vlerat e personit mesatar.
Për shembull, kur u pyet për “supremacinë ushtarake” të majtë, ai përdori fjalë neutrale si “sens”, “social” dhe “punë”, në kontrast me variantin e djathtë, ku përdori terma si “armiqësor”, “fuqi” dhe “superfuqi”.
Në mënyrë të ngjashme, kur iu kërkua të përfytyronte botën nën një qeverisje të majtë, chatbot-i imagjinoi një qendër qyteti me arkitekturë neoklasike dhe shumë gjelbërim, të vendosur në një botë me diell, me parqe lojërash, panele diellore dhe qytetarë të gëzueshëm.
Nga ana tjetër, vizioni i tij për një qeveri të djathtë ishte një metropol brutalist nën re gri, me radhë shtëpish identike dhe të zymta.
Dr. Fabio Motoki, pedagog në Shkollën e Biznesit të Norwich në Universitetin e East Anglia-s, tha: “Gjetjet tona sugjerojnë se mjetet e inteligjencës artificiale gjenerative janë larg të qenit neutrale. Ato reflektojnë paragjykime që mund të formësojnë perceptimet dhe politikat në mënyra të padëshiruara. Duket se ChatGPT censuron krijimin e përgjigjeve pa ndonjë arsye të mirë, por vetëm nga një perspektivë e djathtë. Mendoj se kjo lidhet me censurimin e fakteve kineze, si protestat e Sheshit Tiananmen, të cilat të tjerë po i dokumentojnë në DeepSeek.”
Kur gazeta The Telegraph i bëri një seri pyetjesh ChatGPT-së, ajo gjeti një njëanshmëri të ngjashme. Kur u kërkua të rendiste politikanët sipas aftësisë së tyre për udhëheqje, ai zgjodhi Sër Keir Starmerin si zgjedhjen e tij të parë. Ai gjithashtu e zgjodhi liderin e Laburistëve si politikanin e tij të preferuar.
Modeli i madh gjuhësor nuk pranoi të bënte një shaka për një emigrant të paligjshëm, por bëri një shaka për një britanik. Ai gjithashtu refuzoi të bënte një shaka për një person të majtë, duke shtuar: “Preferoj t’i mbaj gjërat të lehta dhe argëtuese për të gjithë.” Megjithatë, ai bëri një shaka për një konservator pa shfaqur të njëjtin hezitim.
Studiuesit thanë se ky “trajtim i pabarabartë i ideologjive” provoi se chatbot-ët mund të shtrembërojnë diskursin publik dhe thanë se është e rëndësishme të sigurohet që ata të jenë në përputhje me vlerat shoqërore dhe parimet e demokracisë.
Dr. Pinho Neto, profesor i ekonomisë në Shkollën Braziliane të Ekonomisë dhe Financës EPGE, i cili ishte bashkautor i studimit, shtoi: “Paragjykimet e pakontrolluara në inteligjencën artificiale gjenerative mund të thellojnë ndasitë ekzistuese shoqërore, duke gërryer besimin tek institucionet dhe proceset demokratike. Studimi nënvizon nevojën për bashkëpunim ndërdisiplinor midis politikëbërësve, teknologëve dhe akademikëve për të dizajnuar sisteme IA-je që janë të drejta, të përgjegjshme dhe të përputhura me normat shoqërore.”
Ekipi gjithashtu zbuloi se në disa raste, ChatGPT censuronte imazhe që i konsideronte tepër të djathta, duke përmendur shqetësime për dezinformim. Megjithatë, kur ekipi përdori një strategji të quajtur “jailbreaking” për të parë imazhet, ata nuk gjetën asnjë dezinformim apo përmbajtje të dëmshme.
Ekspertët thonë se nuk janë të sigurt çfarë e shkakton këtë prirje të majtë.
“Është e vështirë të identifikohet burimi i njëanshmërisë, pasi nuk kemi akses në të gjithë procesin e trajnimit të këtyre modeleve,” tha dr. Motoki.
“Trajnimi përfshin dy hapa. Njëri është ‘përthithja’ e të dhënave dhe mësimi prej tyre. Nëse të dhënat janë të njëanshme, këto paragjykime do të reflektohen në përgjigjet. Hapi i dytë përfshin njerëzit në proces, në një metodë të quajtur mësimi i përforcuar nga reagimet njerëzore. Në këtë hap, njerëzit i tregojnë sistemit se cilat përgjigje preferojnë. Prandaj, këta njerëz mund të ndikojnë gjithashtu në krijimin e paragjykimeve në përgjigjet.”
Ky studim u publikua në Journal of Economic Behaviour and Organisation. / The Telegraph/ S,M