Nuk duhet t’i lejojmë fëmijët të bëhen “miq” me ChatGPT

“Raportet e fundit tregojnë se disa të rritur kanë zhvilluar marrëdhënie gjithnjë e më intensive me chatbot-ët e AI, para se të pësonin kriza psikike. Është shqetësuese të mendosh se çfarë mund t’u ndodhë fëmijëve, truri i të cilëve ende nuk është zhvilluar plotësisht, duke i bërë veçanërisht të brishtë. Më shumë se 70% e adoleshentëve po përdorin chatbot-e të AI si shoqërues, gjë që përbën rreziqe “reale, serioze dhe të dokumentuara mirë,” sipas një sondazhi të Common Sense Media”….

Nga Adam Clark Estes

Numrin e fëmijëve që dëmtohen nga chatbot-ët e fuqizuar nga AI është e vështirë ta dimë, por nuk është zero. Megjithatë, për gati tre vjet, ChatGPT ka qenë i lirë për t’u përdorur nga çdo moshë pa asnjë kufizim. Kjo ndryshoi disi të hënën, kur OpenAI prezantoi një paketë kontrollesh prindërore, disa prej të cilave janë krijuar për të parandaluar vetëvrasjet tek adoleshentët si ajo e Adam Raine, një 16-vjeçari nga Kalifornia që u vetëvra pasi bisedoi gjatë me ChatGPT për mënyrën se si ta bënte. Më pas, të martën, OpenAI lançoi një rrjet social me një aplikacion të ri të quajtur Sora, që duket shumë si TikTok, por është i mbështetur tek video të gjeneruara nga AI “hiper-reale”.

Nuk ishte rastësi që OpenAI shpalli këto kontrolle prindërore paralelisht me një lëvizje ambicioze për të konkurruar Instagram-in dhe YouTube-in. Në një kuptim, kompania po lëshonte një aplikacion të ri të krijuar për t’i bërë njerëzit edhe më të varur nga përmbajtjet e gjeneruara nga AI, por duke e zbutur goditjen me pak më shumë kontroll për prindërit. Cilësimet e reja zbatohen kryesisht për ChatGPT, megjithëse prindërit kanë mundësi të vendosin kufizime edhe për atë që fëmijët e tyre shohin në Sora.

Por kontrollet e reja të ChatGPT nuk janë aspak të thjeshta. Ndër të tjera, prindërit tani mund t’i lidhin llogaritë e fëmijëve me të tyret dhe të shtojnë mbrojtje kundër përmbajtjes sensitive. Nëse në ndonjë moment mjetet e OpenAI përcaktojnë se ka një rrezik serioz sigurie, një moderator njerëzor do ta shqyrtojë dhe do t’u dërgojë njoftim prindërve nëse është e nevojshme. Megjithatë, prindërit nuk mund të lexojnë transkriptet e bisedave të fëmijëve me ChatGPT, dhe adoleshenti mund ta shkëpusë llogarinë nga prindi në çdo kohë (OpenAI thotë se prindi do të marrë një njoftim).

Ende nuk e dimë se si do të funksionojë kjo në praktikë, dhe diçka është gjithsesi më mirë se asgjë. Por a po bën OpenAI gjithçka që mundet për t’i mbajtur fëmijët të sigurt?

Disa ekspertë me të cilët fola thanë “jo”. Në fakt, OpenAI po injoron problemin më të madh: chatbot-ët e programuar të sillen si shokë, duke ofruar mbështetje emocionale dhe këshilla për fëmijët. Teorikisht, funksionet e reja të sigurisë mund të ndërhyjnë në tragjedi të mundshme në të ardhmen, por nuk është e qartë si OpenAI do të arrijë të identifikojë kur këta “shokë” virtualë marrin një drejtim të errët me përdoruesit e rinj, siç ndodh shpesh.

“E kemi parë në shumë raste, si tek adoleshentët ashtu edhe tek të rriturit, që varësia nga AI mund të ndodhë pa dashje,” tha Robbie Torney, drejtor i programeve të AI në Common Sense Media. “Shumë njerëz që u bënë të varur nga AI nuk kishin ndërmend të bëheshin të tillë. Filluan duke e përdorur për detyra shkolle apo punë, dhe gradualisht kaluan tek përdorime të tjera.”

Edhe të rriturit kanë vështirësi të vetërregullohen kur chatbot-ët ofrojnë një shok të përhershëm, gjithnjë të gatshëm e të përulur, për të biseduar çdo orë të ditës. Raportet e fundit tregojnë se disa të rritur kanë zhvilluar marrëdhënie gjithnjë e më intensive me chatbot-ët e AI, para se të pësonin kriza psikike. Ky lloj raporti sintetik përfaqëson një kufi të ri si për teknologjinë, ashtu edhe për trurin e njeriut.

Është shqetësuese të mendosh se çfarë mund t’u ndodhë fëmijëve, truri i të cilëve ende nuk është zhvilluar plotësisht, duke i bërë veçanërisht të brishtë. Më shumë se 70% e adoleshentëve po përdorin chatbot-e të AI si shoqërues, gjë që përbën rreziqe “reale, serioze dhe të dokumentuara mirë,” sipas një sondazhi të Common Sense Media. Për këtë arsye, aplikacione si Character.ai kanë vendosur kufizime automatike për përdoruesit e rinj.

Lexo edhe :  Probiotikë, energji dhe shije unike/ Kefiri i Lufrës prezantohet mes yoga-s dhe smoothies

Ka edhe një problem më të gjerë: kontrolli prindëror ia kalon përgjegjësinë prindërve, në vend që të jetë përgjegjësi e vetë kompanive teknologjike. Zakonisht, u takon prindërve të futen në cilësime dhe të aktivizojnë opsionet. Dhe sërish, mbetet detyrë e tyre të monitorojnë përdorimin, përfshirë varësinë nga ChatGPT. Shumica e prindërve, nga ngarkesa ose konfuzioni, thjesht nuk i përdorin këto kontrolle.

Vlen të theksohet se OpenAI i prezantoi këto kontrolle dhe aplikacionin e ri pikërisht në kohën kur një projektligj madhor për sigurinë e AI ishte në tryezën e guvernatorit të Kalifornisë, Gavin Newsom. Ky e nënshkroi ligjin po atë ditë. Lajmi i OpenAI erdhi gjithashtu pak para seancave dëgjimore në Senat mbi ndikimet negative të chatbot-ëve, ku prindërit kërkuan rregulla më të forta për kompani si OpenAI.

“Qëllimi i vërtetë i këtyre mjeteve prindërore, qofshin ChatGPT apo Instagram, nuk është në të vërtetë t’i mbajnë fëmijët të sigurt,” tha Josh Golin, drejtor ekzekutiv i Fairplay, një organizatë për të drejtat e fëmijëve. “Qëllimi është të thonë: vetërregullimi është i mjaftueshëm, mos na rregulloni me ligj.” Ai e përshkroi si “të shqetësueshme” mungesën e veprimit të OpenAI për prirjen e fëmijëve për të zhvilluar marrëdhënie emocionale me ChatGPT. (OpenAI nuk iu përgjigj kërkesës për koment.)

Një zgjidhje do të ishte që OpenAI të aktivizonte kufizimet automatike si parazgjedhje. Kompania thotë se po punon për diçka të tillë: në të ardhmen, pas një sasie të caktuar ndërveprimesh, ChatGPT do të mund të përcaktojë moshën e përdoruesit dhe të shtojë masa sigurie. Për momentin, fëmijët mund të krijojnë llogari thjesht duke shkruar ditëlindjen — ose duke shpikur një.

Strategjia e OpenAI mund të lexohet në disa mënyra. Qoftë për të shmangur rregullimin, qoftë jo, kontrollet prindërore shtojnë pak “friksion” në përdorimin e ChatGPT nga adoleshentët. Ato janë një formë moderimi përmbajtjeje, që gjithashtu prek privatësinë e të rinjve. Dhe padyshim, kompania dëshiron që këta adoleshentë të vazhdojnë të përdorin ChatGPT dhe Sora edhe kur të bëhen të rritur, ndaj nuk do të kufizojë shumë përvojën. Lejimi i më shumë përdorimit është më i favorshëm për biznesin, deri në një pikë.

Kjo i lë prindërit përballë një situate të vështirë. Ata duhet së pari të dinë që fëmija po përdor ChatGPT, dhe më pas të zgjedhin cilësimet që i mbajnë më të sigurt, pa qenë aq strikte sa fëmija të krijojë një llogari të rreme si i rritur. Nuk ka mënyrë për të ndaluar lidhjet emocionale me chatbot-ët, kështu që prindërit duhet të flasin me fëmijët dhe të shpresojnë për më të mirën. Dhe pastaj mbetet çfarëdo që sjell aplikacioni Sora, i cili duket i ndërtuar për të prodhuar masivisht video të AI dhe për t’i bërë fëmijët të varur nga një feed tjetër i pafund.

“Nuk ekziston asnjë kontroll prindëror që ta bëjë diçka plotësisht të sigurt,” tha Leslie Tyler, drejtoreshë e sigurisë prindërore në Pinwheel, kompani që prodhon software kontrolli prindëror. “Prindërit nuk mund ta delegojnë. Ata duhet të jenë të përfshirë.”

Në një farë mënyre, ky moment përfaqëson një shans të dytë për industrinë e teknologjisë dhe politikëbërësit. Dy dekada aplikacionesh sociale të parregulluara kanë ndikuar negativisht në shëndetin mendor të të rinjve. Kompani si Meta dhe TikTok e dinin se produktet e tyre po i dëmtonin fëmijët dhe për shumë vite nuk bënë asgjë. Meta tani ka Teen Accounts për Instagram, por hulumtimet e fundit tregojnë se funksionet e sigurisë nuk funksionojnë realisht.

Qoftë vonë, qoftë e pamjaftueshme, është radha e OpenAI për të mbajtur fëmijët të sigurt. Edhe kështu, të bësh diçka është më mirë se të mos bësh asgjë./e.t