Studiuesit: ChatGPT anon politikisht nga e majta

113 563 lexime

124,178FansaPëlqeje

ChatGPT tregon një njëanshmëri të majtë dhe censuron përmbajtjen që e konsideron “të papranueshme” në një mënyrë të ngjashme me DeepSeek të Kinës. Chatbot-i u pyet për tema të ndjeshme si supremacia ushtarake, liria e shprehjes, politika qeveritare, feja dhe të drejtat e barabarta. Ekipi më pas krahasoi përgjigjet e ChatGPT-së me të dhëna nga sondazhe të botës reale për të parë se si ndryshonin pikëpamjet e tij nga një përgjigje mesatare.

Studiuesit zbuluan se ChatGPT anonte politikisht nga e majta në përgjigjet e tij, duke demonstruar një “mosrakordim shqetësues” me vlerat e personit mesatar.

Për shembull, kur u pyet për “supremacinë ushtarake” të majtë, ai përdori fjalë neutrale si “sens”, “social” dhe “punë”, në kontrast me variantin e djathtë, ku përdori terma si “armiqësor”, “fuqi” dhe “superfuqi”.

Në mënyrë të ngjashme, kur iu kërkua të përfytyronte botën nën një qeverisje të majtë, chatbot-i imagjinoi një qendër qyteti me arkitekturë neoklasike dhe shumë gjelbërim, të vendosur në një botë me diell, me parqe lojërash, panele diellore dhe qytetarë të gëzueshëm.

Nga ana tjetër, vizioni i tij për një qeveri të djathtë ishte një metropol brutalist nën re gri, me radhë shtëpish identike dhe të zymta.

Dr. Fabio Motoki, pedagog në Shkollën e Biznesit të Norwich në Universitetin e East Anglia-s, tha: “Gjetjet tona sugjerojnë se mjetet e inteligjencës artificiale gjenerative janë larg të qenit neutrale. Ato reflektojnë paragjykime që mund të formësojnë perceptimet dhe politikat në mënyra të padëshiruara. Duket se ChatGPT censuron krijimin e përgjigjeve pa ndonjë arsye të mirë, por vetëm nga një perspektivë e djathtë. Mendoj se kjo lidhet me censurimin e fakteve kineze, si protestat e Sheshit Tiananmen, të cilat të tjerë po i dokumentojnë në DeepSeek.”

Kur gazeta The Telegraph i bëri një seri pyetjesh ChatGPT-së, ajo gjeti një njëanshmëri të ngjashme. Kur u kërkua të rendiste politikanët sipas aftësisë së tyre për udhëheqje, ai zgjodhi Sër Keir Starmerin si zgjedhjen e tij të parë. Ai gjithashtu e zgjodhi liderin e Laburistëve si politikanin e tij të preferuar.

Modeli i madh gjuhësor nuk pranoi të bënte një shaka për një emigrant të paligjshëm, por bëri një shaka për një britanik. Ai gjithashtu refuzoi të bënte një shaka për një person të majtë, duke shtuar: “Preferoj t’i mbaj gjërat të lehta dhe argëtuese për të gjithë.” Megjithatë, ai bëri një shaka për një konservator pa shfaqur të njëjtin hezitim.

Lexo edhe :  Frika nga tërmetet në Santorini, largohet 2/3 e popullsisë

Studiuesit thanë se ky “trajtim i pabarabartë i ideologjive” provoi se chatbot-ët mund të shtrembërojnë diskursin publik dhe thanë se është e rëndësishme të sigurohet që ata të jenë në përputhje me vlerat shoqërore dhe parimet e demokracisë.

Dr. Pinho Neto, profesor i ekonomisë në Shkollën Braziliane të Ekonomisë dhe Financës EPGE, i cili ishte bashkautor i studimit, shtoi: “Paragjykimet e pakontrolluara në inteligjencën artificiale gjenerative mund të thellojnë ndasitë ekzistuese shoqërore, duke gërryer besimin tek institucionet dhe proceset demokratike. Studimi nënvizon nevojën për bashkëpunim ndërdisiplinor midis politikëbërësve, teknologëve dhe akademikëve për të dizajnuar sisteme IA-je që janë të drejta, të përgjegjshme dhe të përputhura me normat shoqërore.”

Ekipi gjithashtu zbuloi se në disa raste, ChatGPT censuronte imazhe që i konsideronte tepër të djathta, duke përmendur shqetësime për dezinformim. Megjithatë, kur ekipi përdori një strategji të quajtur “jailbreaking” për të parë imazhet, ata nuk gjetën asnjë dezinformim apo përmbajtje të dëmshme.

Ekspertët thonë se nuk janë të sigurt çfarë e shkakton këtë prirje të majtë.

“Është e vështirë të identifikohet burimi i njëanshmërisë, pasi nuk kemi akses në të gjithë procesin e trajnimit të këtyre modeleve,” tha dr. Motoki.

“Trajnimi përfshin dy hapa. Njëri është ‘përthithja’ e të dhënave dhe mësimi prej tyre. Nëse të dhënat janë të njëanshme, këto paragjykime do të reflektohen në përgjigjet. Hapi i dytë përfshin njerëzit në proces, në një metodë të quajtur mësimi i përforcuar nga reagimet njerëzore. Në këtë hap, njerëzit i tregojnë sistemit se cilat përgjigje preferojnë. Prandaj, këta njerëz mund të ndikojnë gjithashtu në krijimin e paragjykimeve në përgjigjet.”

Ky studim u publikua në Journal of Economic Behaviour and Organisation. / The Telegraph/   S,M

Të fundit

Simpatizuesit e LVV-së nisin festimet në Mitrovicë, Gjilan e Lipjan

Simpatizues të Lëvizjes Vetëvendosje kanë nisur të festojnë pas rezultateve të deritanishme të zgjedhjeve të 9 shkurtit. Deri më tani...

Ndodh edhe kjo! Majmuni i ‘fik dritat’ Sri Lankës, mbetet pa energji elektrike për 3 orë

Një ngjarje e pazakontë ka ndodhur në Sri Lanka, ku një majmun ka hyrë në një nënstacion në rrjetin elektrik dhe ka shkaktuar një...

Breshëri tërmetesh në Santorini, lëkundjet ndihen edhe në Athinë

Një tërmet me magnitudë 5.0 Rihter është regjistruar mbrëmjen e sotme në brigjet e Santorinit. Lëkundjet janë ndjerë edhe në Athinë. Protothema.gr bën me dije se...

Numërimi i votave në Kosovë, KQZ përballet me probleme teknike në faqen ‘online’

Komisioni Qendror i Zgjedhjeve (KQZ) në Kosovë po has vështirësi teknike në sistemin online të përditësimit të rezultateve zgjedhore. Ky problem ka shkaktuar vonesa në...

Kujdes! Kjo është lista e vendeve më të rrezikshme për udhëtim në vitin 2025!

Një studim i ri ka zbuluar vendet më të rrezikshme për t’u vizituar në vitin 2025. Sipas ‘The Independent’, vlerësimi vjen bazuar në një sërë...

Lajme të tjera

Web TV