Megjithëse dizajnerët kanë shumë fuqi, AI është thjesht një mjet i konceptuar për të na sjellë dobi. Komunitetet duhet të sigurohen për këtë
Nga Afua Bruce
Superfuqi. Katastrofike. Revolucionare. I papërgjegjshëm. Efikasiteti-krijues. E rrezikshme. Këto terma janë përdorur për të përshkruar inteligjencën artificiale gjatë disa muajve të fundit. Lëshimi i ChatGPT për publikun e gjerë e vë AI në qendër të vëmendjes dhe shumë njerëz mbeten të pyesin: si është i ndryshëm nga teknologjitë e tjera dhe çfarë do të ndodhë kur mënyra se si ne bëjmë biznes dhe jetojmë jetën tonë të ndryshojë tërësisht?
Së pari, është e rëndësishme të pranohet se AI është pikërisht kjo: një teknologji. Siç theksojmë unë dhe Amy Sample Ward në librin tonë, The Tech That Comes Next, teknologjia është një mjet i krijuar nga njerëzit, dhe për këtë arsye i nënshtrohet besimeve dhe kufizimeve njerëzore. AI është përshkruar shpesh si një teknologji plotësisht e vetë-mjaftueshme, vetë-mësuese; megjithatë, në realitet, ai i nënshtrohet rregullave të vendosura në dizajnin e tij. Për shembull, kur pyes ChatGPT, “Cili vend ka orizin më të mirë jollof?”, ai përgjigjet: “Si një model i gjuhës së AI, nuk kam mendime personale, por mund të jap informacion. Në fund të fundit, pyetja se cili vend ka orizin më të mirë jollof është subjektive dhe varet nga preferencat personale. Njerëz të ndryshëm mund të kenë mendime të ndryshme bazuar në prejardhjen e tyre kulturore, preferencat e shijeve ose përvojat.”
Kjo pasqyron një zgjedhje të qartë të projektimit nga programuesit e AI për të parandaluar që ky program i AI të japë përgjigje specifike për çështjet e opinionit kulturor. Përdoruesit e ChatGPT mund t’i bëjnë pyetje modelit të opinionit për tema më të diskutueshme se një pjatë me oriz, por për shkak të kësaj zgjedhjeje dizajni, ata do të marrin një përgjigje të ngjashme. Gjatë muajve të fundit, ChatGPT ka modifikuar kodin e tij për të reaguar ndaj akuzave dhe shembujve të seksizmit dhe racizmit në përgjigjet e produktit. Ne duhet t’i mbajmë zhvilluesit në një standard të lartë dhe të presim kontrolle dhe ekuilibra në mjetet e AI; ne gjithashtu duhet të kërkojmë që procesi i vendosjes së këtyre kufijve të jetë gjithëpërfshirës dhe të përfshijë njëfarë shkalle transparence.
Ndërsa projektuesit kanë një fuqi të madhe në përcaktimin se si funksionojnë mjetet e AI, udhëheqësit e industrisë, agjencitë qeveritare dhe organizatat jofitimprurëse mund të ushtrojnë fuqinë e tyre për të zgjedhur kur dhe si të aplikojnë sistemet e AI. Inteligjenca artificiale gjeneruese mund të na lërë përshtypje me aftësinë e saj për të prodhuar fotografi në kokë, për të planifikuar axhendat e pushimeve, për të krijuar prezantime pune dhe madje për të shkruar kode të reja, por kjo nuk do të thotë se mund të zgjidhë çdo problem. Pavarësisht zhurmës teknologjike, ata që vendosin se si të përdorin AI duhet së pari të pyesin anëtarët e komunitetit të prekur: “Cilat janë nevojat tuaja?” dhe “Cilat janë ëndrrat tuaja?”. Përgjigjet e këtyre pyetjeve duhet të nxisin kufizime për zhvilluesit për t’i zbatuar dhe duhet të nxisin vendimin nëse dhe si të përdorin AI.
Në fillim të vitit 2023, Koko, një aplikacion i shëndetit mendor, “testoi GPT-3 për të këshilluar 4000 njerëz, por e mbylli testin sepse “ndihej disi steril”. U bë shpejt e qartë se komuniteti i prekur nuk donte një program AI në vend të një terapisti njerëzor të trajnuar. Megjithëse biseda rreth AI mund të jetë e përhapur, përdorimi i saj nuk është dhe nuk duhet të jetë. Pasojat e nxitimit për t’u mbështetur vetëm në sistemet e AI për të ofruar akses në shërbimet mjekësore, caktimin e prioriteteve për strehim, ose rekrutimin dhe punësimin e mjeteve për kompanitë mund të jenë tragjike; sistemet mund të përjashtojnë dhe të shkaktojnë dëm në shkallë. Ata që mendojnë se si ta përdorin atë duhet të pranojnë se vendimi për të mos përdorur AI është po aq i fuqishëm sa vendimi për të përdorur AI.
Në themel të të gjitha këtyre çështjeve janë pyetjet themelore në lidhje me cilësinë e grupeve të të dhënave që fuqizojnë AI dhe aksesin në teknologji. Në thelbin e saj, AI punon duke kryer operacione matematikore mbi të dhënat ekzistuese për të ofruar parashikime ose për të gjeneruar përmbajtje të re. Nëse të dhënat janë të njëanshme, jo përfaqësuese ose nuk kanë gjuhë specifike, atëherë përgjigjet e chatbot-it, rekomandimet e aktivitetit dhe imazhet e krijuara nga kërkesat tona mund të kenë të njëjtat paragjykime të ngulitura.
Për ta kundërshtuar këtë, puna e studiuesve dhe avokatëve në kryqëzimin e çështjeve të teknologjisë, shoqërisë, racës dhe gjinisë duhet të informojë qasjet tona për ndërtimin e mjeteve të përgjegjshme teknologjike. Safiya Noble ka ekzaminuar rezultatet e njëanshme të kërkimit që u shfaqën kur u kërkuan në Google “frizurat profesionale” dhe “frizurat joprofesionale për punë”. Termi i mëparshëm jepte imazhe të grave të bardha; kërkimi i fundit, imazhe të femrave të zeza me modele flokësh natyrale. Rritja e ndërgjegjësimit dhe avokimit bazuar në hulumtimin përfundimisht e shtyu Google të përditësonte sistemin e tij.
Ka pasur gjithashtu punë për të ndikuar në sistemet e AI përpara se ato të konsiderohen të plota dhe të shpërndahen në botë. Një ekip studiuesish të Universitetit Carnegie Mellon dhe të Universitetit të Pitsburgut përdorën konviktin komik të ciklit jetësor të AI, ose përkthimin e raporteve dhe mjeteve të AI në përshkrime dhe imazhe lehtësisht të kuptueshme, për të angazhuar punëtorë të vijës së parë dhe individë të pastrehuar në diskutime rreth një mbështetjeje vendimi të bazuar në AI. sistemi për shërbimet e të pastrehëve në zonën e tyre. Ata ishin në gjendje të përthithnin mënyrën se si funksiononte sistemi dhe të ofronin reagime konkrete për zhvilluesit. Mësimi që duhet nxjerrë është se AI përdoret nga njerëzit dhe për këtë arsye nevojitet një qasje që kombinon teknologjinë me kontekstin shoqëror për t’i dhënë formë asaj.
Ku shkojmë ne si shoqëri nga këtu? Roli i kujt është të balancojë dizajnin e mjeteve të AI me vendimin se kur duhet të përdoren sistemet e AI dhe nevojën për të zbutur dëmet që mund të shkaktojë AI? Secili ka një rol për të luajtur. Siç u diskutua më parë, teknologët dhe drejtuesit e organizatës kanë përgjegjësi të qarta në hartimin dhe vendosjen e sistemeve të AI. Politikëbërësit kanë aftësinë të përcaktojnë udhëzime për zhvillimin dhe përdorimin e AI – jo për të kufizuar inovacionin, por për ta drejtuar atë në mënyra që minimizojnë dëmin për individët. Financuesit dhe investitorët mund të mbështesin sistemet e AI që përqendrojnë njerëzit dhe inkurajojnë afatet kohore që lejojnë kontributin e komunitetit dhe analizën e komunitetit. Të gjitha këto role duhet të punojnë së bashku për të krijuar sisteme më të barabarta të AI.
Qasja ndërsektoriale, ndërdisiplinore mund të japë rezultate më të mira, dhe sot ka shumë shembuj premtues. Farmer.chat përdor Gooey.AI për t’u mundësuar fermerëve në Indi, Etiopi dhe Kenia të aksesojnë njohuritë bujqësore në gjuhët lokale në WhatsApp. Qendra Afrikane për Transformimin Ekonomik është në procesin e zhvillimit të një programi shumë-vjecar shumë-vendësh për të ndërmarrë ushtrime rregullatore të sandbox, ose provë, mbi AI në politikëbërjen ekonomike. Studiuesit po hetojnë se si të përdorin AI për të rigjallëruar gjuhët indigjene. Një projekt i tillë është puna me gjuhën Cheyenne në Shtetet e Bashkuara perëndimore.
Këta shembuj tregojnë se si AI mund të përdoret për të përfituar shoqërinë në mënyra të barabarta. Historia ka vërtetuar se efektet e pabarabarta të teknologjisë komplikohen me kalimin e kohës; këto efekte të ndryshme nuk janë diçka që “djemtë e teknologjisë” ta rregullojnë vetë. Në vend të kësaj, ne mund të përmirësojmë kolektivisht cilësinë e sistemeve të AI të zhvilluara dhe të përdorura gjatë dhe rreth jetës sonë.
Përgatiti për botim: L.Veizi/kb