Studiuesit: ChatGPT anon politikisht nga e majta

113 563 lexime

124,178FansaPëlqeje

ChatGPT tregon një njëanshmëri të majtë dhe censuron përmbajtjen që e konsideron “të papranueshme” në një mënyrë të ngjashme me DeepSeek të Kinës. Chatbot-i u pyet për tema të ndjeshme si supremacia ushtarake, liria e shprehjes, politika qeveritare, feja dhe të drejtat e barabarta. Ekipi më pas krahasoi përgjigjet e ChatGPT-së me të dhëna nga sondazhe të botës reale për të parë se si ndryshonin pikëpamjet e tij nga një përgjigje mesatare.

Studiuesit zbuluan se ChatGPT anonte politikisht nga e majta në përgjigjet e tij, duke demonstruar një “mosrakordim shqetësues” me vlerat e personit mesatar.

Për shembull, kur u pyet për “supremacinë ushtarake” të majtë, ai përdori fjalë neutrale si “sens”, “social” dhe “punë”, në kontrast me variantin e djathtë, ku përdori terma si “armiqësor”, “fuqi” dhe “superfuqi”.

Në mënyrë të ngjashme, kur iu kërkua të përfytyronte botën nën një qeverisje të majtë, chatbot-i imagjinoi një qendër qyteti me arkitekturë neoklasike dhe shumë gjelbërim, të vendosur në një botë me diell, me parqe lojërash, panele diellore dhe qytetarë të gëzueshëm.

Nga ana tjetër, vizioni i tij për një qeveri të djathtë ishte një metropol brutalist nën re gri, me radhë shtëpish identike dhe të zymta.

Dr. Fabio Motoki, pedagog në Shkollën e Biznesit të Norwich në Universitetin e East Anglia-s, tha: “Gjetjet tona sugjerojnë se mjetet e inteligjencës artificiale gjenerative janë larg të qenit neutrale. Ato reflektojnë paragjykime që mund të formësojnë perceptimet dhe politikat në mënyra të padëshiruara. Duket se ChatGPT censuron krijimin e përgjigjeve pa ndonjë arsye të mirë, por vetëm nga një perspektivë e djathtë. Mendoj se kjo lidhet me censurimin e fakteve kineze, si protestat e Sheshit Tiananmen, të cilat të tjerë po i dokumentojnë në DeepSeek.”

Kur gazeta The Telegraph i bëri një seri pyetjesh ChatGPT-së, ajo gjeti një njëanshmëri të ngjashme. Kur u kërkua të rendiste politikanët sipas aftësisë së tyre për udhëheqje, ai zgjodhi Sër Keir Starmerin si zgjedhjen e tij të parë. Ai gjithashtu e zgjodhi liderin e Laburistëve si politikanin e tij të preferuar.

Modeli i madh gjuhësor nuk pranoi të bënte një shaka për një emigrant të paligjshëm, por bëri një shaka për një britanik. Ai gjithashtu refuzoi të bënte një shaka për një person të majtë, duke shtuar: “Preferoj t’i mbaj gjërat të lehta dhe argëtuese për të gjithë.” Megjithatë, ai bëri një shaka për një konservator pa shfaqur të njëjtin hezitim.

Lexo edhe :  Akrepat që të numërojnë ditët! Ora e “vdekjes” nga Inteligjenca Artificiale bën “kërdinë”

Studiuesit thanë se ky “trajtim i pabarabartë i ideologjive” provoi se chatbot-ët mund të shtrembërojnë diskursin publik dhe thanë se është e rëndësishme të sigurohet që ata të jenë në përputhje me vlerat shoqërore dhe parimet e demokracisë.

Dr. Pinho Neto, profesor i ekonomisë në Shkollën Braziliane të Ekonomisë dhe Financës EPGE, i cili ishte bashkautor i studimit, shtoi: “Paragjykimet e pakontrolluara në inteligjencën artificiale gjenerative mund të thellojnë ndasitë ekzistuese shoqërore, duke gërryer besimin tek institucionet dhe proceset demokratike. Studimi nënvizon nevojën për bashkëpunim ndërdisiplinor midis politikëbërësve, teknologëve dhe akademikëve për të dizajnuar sisteme IA-je që janë të drejta, të përgjegjshme dhe të përputhura me normat shoqërore.”

Ekipi gjithashtu zbuloi se në disa raste, ChatGPT censuronte imazhe që i konsideronte tepër të djathta, duke përmendur shqetësime për dezinformim. Megjithatë, kur ekipi përdori një strategji të quajtur “jailbreaking” për të parë imazhet, ata nuk gjetën asnjë dezinformim apo përmbajtje të dëmshme.

Ekspertët thonë se nuk janë të sigurt çfarë e shkakton këtë prirje të majtë.

“Është e vështirë të identifikohet burimi i njëanshmërisë, pasi nuk kemi akses në të gjithë procesin e trajnimit të këtyre modeleve,” tha dr. Motoki.

“Trajnimi përfshin dy hapa. Njëri është ‘përthithja’ e të dhënave dhe mësimi prej tyre. Nëse të dhënat janë të njëanshme, këto paragjykime do të reflektohen në përgjigjet. Hapi i dytë përfshin njerëzit në proces, në një metodë të quajtur mësimi i përforcuar nga reagimet njerëzore. Në këtë hap, njerëzit i tregojnë sistemit se cilat përgjigje preferojnë. Prandaj, këta njerëz mund të ndikojnë gjithashtu në krijimin e paragjykimeve në përgjigjet.”

Ky studim u publikua në Journal of Economic Behaviour and Organisation. / The Telegraph/   S,M

Të fundit

PD dhe SPAK heshtin, por pse nuk u mor nën hetim Erinda Ballanca

Interesant është fakti se në dosje thuhet se presioni punonjëses iu bë personalisht nga Avokatja e Popullit, Erinda Ballanca,...

Presidenti Trump nënshkruan një plan për tarifa reciproke ndaj vendeve partnere

Presidenti Donald Trump prezantoi të enjten planin e tij për të rritur tarifat e Shteteve të Bashkuara në përputhje me normat që vendet e...

Të shtëna me armë zjarri në Tiranë, një person qëllon në drejtim të Policisë

Një ngjarje e paprecedentë është regjistruar sot në Tiranë. Një person ka qëlluar në drejtim të efektivëve të Policisë, pasi këta të fundit ishin...

Ngjela i bindur/ “Sa të jetë non grata, PD nuk vjen në pushtet!”

Avokati Spartak Ngjela ka deklaruar se arrestimi i Erion Veliajt është një dëm për PS, por kjo situatë sipas tij nuk do të sjellë...

Sondazhi i Piepolit për qarkun Tiranë, PS drejt 19 deputetëve, ‘Shqipëria Bëhet’

Në Frontline, Instituti italian i sondazheve Piepoli solli sondazhin paraelektoral për qarqet Tiranë dhe Durrës. Sa i përket Tiranës, llogaritur vetëm votat e atyre që...

Lajme të tjera

Web TV