Inteligjenca artificiale përfaqëson një rrezik për njerëzimin, i krahasueshëm me atë të pandemive dhe luftërave bërthamore: alarmi i 350 shkencëtarëve.
“Zbutja e rreziqeve të zhdukjes të shkaktuara nga inteligjenca artificiale duhet të jetë një prioritet global, siç bëhet për rreziqe të tjera në shkallë shoqërore si pandemitë dhe lufta bërthamore . ”
Me këtë deklaratë lakonike të nënshkruar nga 350 shkencëtarë dhe inxhinierë të punësuar në fushën e inteligjencës artificiale dhe të publikuar nga Qendra jofitimprurëse për Sigurinë e AI, ekspertët më të mirë të sektorit kthehen të flasin për rreziqet që lidhen me zhvillimin gjithnjë e më të avancuar të inteligjencës artificiale: jo më vetëm falsifikime të thella dhe humbje pune, por edhe zhdukja e specieve tona.
EMRA TË SHQUAR. Midis nënshkruesve të letrës së hapur të keqe dallohen drejtuesit e kompanive kryesore të AI si Sam Altman, drejtor ekzekutiv i OpenAI, Demis Hassabis, me të njëjtin rol në Google DeepMind dhe Dario Amodei, në krye të startup-it amerikan të AI, Anthropic.
Janë gjithashtu Geoffrey Hinton dhe Yoshua Bengio, fitues të një çmimi Turing (ekuivalenti i Nobelit për shkencëtarët kompjuterikë) dhe të konsideruar si pionierë të inteligjencës artificiale për studimet e tyre themelore mbi rrjetet nervore, modele për përpunimin e informacionit në bazë të të mësuarit në njohjen e fytyrës.
Sistemet autonome të drejtimit të automjetit dhe punonjësve socialë, për të përmendur vetëm disa lloje të AI.
PËRPARIMI JASHTË KONTROLLIT. Apeli, i mbajtur qëllimisht i shkurtër, në mënyrë që të mos hyjë në specifika mbi kërcënimet individuale dhe kështu të arrihet numri maksimal i shkencëtarëve për t’u bashkuar, është pjesë e një klime shqetësimi të përgjithshëm për avancimin shumë të shpejtë të disa llojeve të AI, si p.sh. tipi i modeleve ChatGPT .
Dyshohet se zhvillimi i parregulluar i softuerit të përdorur për këtë dhe chatbot të tjerë konkurrues mund të çojë në përdorimin e inteligjencës artificiale për përhapjen e dezinformatave dhe propagandës, duke krijuar çrregullime në institucione dhe shpërbërje shoqërore.
SITUATA PARADOKSALE. Këto frika të shprehura shpesh nga shkencëtarët vetëm privatisht i bëjnë ata që punojnë në fushën e AI të gjenden në pozitën e pakëndshme të frikës nga vetë teknologjitë që po ndihmojnë për të krijuar : frika më e madhe është ajo e zhvillimit, në një të ardhme jo shumë të largët, inteligjencë artificiale e fortë ose e përgjithshme , e aftë për të mësuar dhe kuptuar saktësisht si një qenie njerëzore.
SHUMË I ZGJUAR PËR TË MBIJETUAR. Ai i AI shton kërcënimet e tjera për mbijetesën e specieve tona që vijnë nga veprimet e vetë njeriut, si ndryshimi i klimës, armët bërthamore ose rreziku në rritje i pandemive për shkak të përdorimit të pamatur të burimeve natyrore.
Me pak fjalë, duket se çfarëdo fati që na pret, fundi duhet të vijë përmes vetëshkatërrimit – një autogol i bukur për një specie që pretendon se është inteligjente.
DISA AKSIONE. Fatmirësisht ne kemi edhe mjetet në duar për të mbrojtur veten dhe do të ishte më mirë ta bënim këtë me kohë.
Në një postim të publikuar së fundmi, vetë Altman, së bashku me dy drejtues të tjerë të OpenAI, sugjerojnë disa strategji për menaxhimin e potencialit të AI në një mënyrë të përgjegjshme: bashkëpunimin midis subjekteve industriale që operojnë në këtë fushë, më shumë kërkime mbi modelet gjuhësore dhe formimin e një organizate ndërkombëtare.
Organizatë për sigurinë e AI e ngjashme me Agjencinë Ndërkombëtare të Energjisë Atomike (IAEA), organi që mbikëqyr menaxhimin, aplikimet dhe sigurinë bërthamore.
Altman ka argumentuar gjithashtu në favor të ligjeve që do të kërkonin që krijuesit e modeleve më të avancuara të AI të regjistroheshin për një licencë të rregulluar nga qeveria për t’i përdorur ato./ Përshtatur nga Focus.it S.M