Ja pse nuk duhet t’i lejojmë fëmijët të bëhen “miq” me ChatGPT!

“Raportet e fundit tregojnë se disa të rritur kanë zhvilluar marrëdhënie gjithnjë e më intensive me chatbot-ët e AI, para se të pësonin kriza psikike. Është shqetësuese të mendosh se çfarë mund t’u ndodhë fëmijëve, truri i të cilëve ende nuk është zhvilluar plotësisht, duke i bërë veçanërisht të brishtë. Më shumë se 70% e adoleshentëve po përdorin chatbot-e të AI si shoqërues, gjë që përbën rreziqe “reale, serioze dhe të dokumentuara mirë,” sipas një sondazhi të Common Sense Media”….

Nga Adam Clark Estes

Numrin e fëmijëve që dëmtohen nga chatbot-ët e fuqizuar nga AI është e vështirë ta dimë, por nuk është zero. Megjithatë, për gati tre vjet, ChatGPT ka qenë i lirë për t’u përdorur nga çdo moshë pa asnjë kufizim. Kjo ndryshoi disi të hënën, kur OpenAI prezantoi një paketë kontrollesh prindërore, disa prej të cilave janë krijuar për të parandaluar vetëvrasjet tek adoleshentët si ajo e Adam Raine, një 16-vjeçari nga Kalifornia që u vetëvra pasi bisedoi gjatë me ChatGPT për mënyrën se si ta bënte. Më pas, të martën, OpenAI lançoi një rrjet social me një aplikacion të ri të quajtur Sora, që duket shumë si TikTok, por është i mbështetur tek video të gjeneruara nga AI “hiper-reale”.

Nuk ishte rastësi që OpenAI shpalli këto kontrolle prindërore paralelisht me një lëvizje ambicioze për të konkurruar Instagram-in dhe YouTube-in. Në një kuptim, kompania po lëshonte një aplikacion të ri të krijuar për t’i bërë njerëzit edhe më të varur nga përmbajtjet e gjeneruara nga AI, por duke e zbutur goditjen me pak më shumë kontroll për prindërit. Cilësimet e reja zbatohen kryesisht për ChatGPT, megjithëse prindërit kanë mundësi të vendosin kufizime edhe për atë që fëmijët e tyre shohin në Sora.

Lexo edhe :  Qori paralajmëron garën për Bashkinë e Tiranës: Do sfidojmë partitë e korruptuara

Por kontrollet e reja të ChatGPT nuk janë aspak të thjeshta. Ndër të tjera, prindërit tani mund t’i lidhin llogaritë e fëmijëve me të tyret dhe të shtojnë mbrojtje kundër përmbajtjes sensitive. Nëse në ndonjë moment mjetet e OpenAI përcaktojnë se ka një rrezik serioz sigurie, një moderator njerëzor do ta shqyrtojë dhe do t’u dërgojë njoftim prindërve nëse është e nevojshme. Megjithatë, prindërit nuk mund të lexojnë transkriptet e bisedave të fëmijëve me ChatGPT, dhe adoleshenti mund ta shkëpusë llogarinë nga prindi në çdo kohë (OpenAI thotë se prindi do të marrë një njoftim).

Ende nuk e dimë se si do të funksionojë kjo në praktikë, dhe diçka është gjithsesi më mirë se asgjë. Por a po bën OpenAI gjithçka që mundet për t’i mbajtur fëmijët të sigurt?

Disa ekspertë me të cilët fola thanë “jo”. Në fakt, OpenAI po injoron problemin më të madh: chatbot-ët e programuar të sillen si shokë, duke ofruar mbështetje emocionale dhe këshilla për fëmijët. Teorikisht, funksionet e reja të sigurisë mund të ndërhyjnë në tragjedi të mundshme në të ardhmen, por nuk është e qartë si OpenAI do të arrijë të identifikojë kur këta “shokë” virtualë marrin një drejtim të errët me përdoruesit e rinj, siç ndodh shpesh.

“E kemi parë në shumë raste, si tek adoleshentët ashtu edhe tek të rriturit, që varësia nga AI mund të ndodhë pa dashje,” tha Robbie Torney, drejtor i programeve të AI në Common Sense Media./kb