Nga Ian Sample
Në dimrin e vitit 1958, një psikolog 30-vjeçar i quajtur Frank Rosenblatt ishte rrugës nga Universiteti Cornell për në Zyrën e Kërkimeve Detare në Uashington DC, kur ndaloi për kafe me një gazetar për ti shpjeguar një zbulim të tij. Rosenblatt kishte zbuluar një shpikje të jashtëzakonshme që, në ditët e fillimit të informatikës, bëri shumë bujë. Ishte, deklaroi ai, “makina e parë që mund të ketë një ide origjinale”.
Mendimi i Rosenblatt ishte Perceptron, një program i frymëzuar nga neuronet njerëzore që funksiononte në një kompjuter nga më të fundit të kohës : një mainframe IBM prej pesë tonësh në madhësinë e një muri. Ushqeni Perceptronin me një grumbull letrash të perforuara dhe ai mund të mësojë të dallojë ato të shënuara në të majtë nga ato të shënuara në të djathtë. Lëreni mënjanë për një moment rëndomësinë e detyrës; makina ishte në gjendje të mësonte.
Rosenblatt besonte se ishte agimi i një epoke të re dhe gazeta New Yorker me sa duket ishte dakord. “Na duket si rivali i parë serioz i trurit të njeriut”, shkruan gazetari. I pyetur se çfarë nuk mund të bënte Perceptroni, Rosenblatt përmendi dashurinë, shpresën dhe dëshpërimin. “Natyra njerëzore, me pak fjalë,” tha ai. “Nëse nuk e kuptojmë libidon njerëzore, a duhet të presim që një makinë ta bëjë atë?”
Një njeri që rregullon një rrjet të dendur instalimesh elektrike.
Perceptron ishte rrjeti i parë nervor, një version rudimentar i rrjeteve nervore thellësisht më komplekse e të thella” pas pjesës më të madhe të inteligjencës artificiale moderne (AI).
Por, gati 70 vjet më vonë, nuk ka ende një rival serioz për trurin e njeriut. “Ajo që kemi sot janë papagaj artificialë”, thotë Prof. Mark Girolami, CEO i kërkimit shkencor në Institutin Alan Turing, në Londër. “Ky në vetvete është një përparim fantastik, që do të na japë mjete të shkëlqyera për të mirën e njerëzimit, por le të mos ëndërrojmë aq shumë e aq shpej me veten.”
Historia e Inteligjencës Artificiale, të paktën siç shkruhet sot, nuk ka mungesë të baballarëve. Shumë ushqeheshin me të njëjtin pasardhës. Rosenblatt nganjëherë përmendet si babai i të mësuarit të thellë, një titull që ndahet me tre individë të tjerë.
Alan Turing, ndërtuesi dhe zbërthyesi i kodeve të kohës së luftës në Bletchley Park dhe themeluesi i shkencës kompjuterike, konsiderohet babai i IA. Ai ishte një nga njerëzit e parë që e mori seriozisht idenë se kompjuterët mund të mendonin.
Në një raport të vitit 1948, Intelligent Machinery, Turing vëzhgoi se si makinat mund të imitojnë sjelljen inteligjente. Një rrugë drejt një “makine të të menduarit”, mendoi ai, ishte zëvendësimi i pjesëve të një personi me makineri: kamera për sytë, mikrofonat për veshët dhe “një lloj truri elektronik”. Për t’i zbuluar gjërat vetë, makina “duhet të lejohet të bredh nëpër fshatra e qytete”, deklaronte Turing.
“Rreziku për qytetarin e zakonshëm do të ishte serioz,” vuri në dukje ai, duke e hedhur poshtë idenë e kësaj makinerie apo mekanizmi si shumë të ngadaltë dhe jopraktike.
Por shumë nga idetë e Turing kanë ngecur. Makinat mund të mësojnë ashtu siç mësojnë fëmijët, tha ai, me ndihmën e shpërblimeve dhe ndëshkimeve. Disa makina mund të modifikojnë veten duke rishkruar kodin e tyre.
Sot, mësimi i makinerive, shpërblimet dhe modifikimet janë koncepte bazë në Inteligjencën Artificiale. Si një mjet për të shënuar progresin drejt makinerive të të menduarit, Turing propozoi lojën e imitimit, e njohur zakonisht si testi Turing, i cili mbështetet në atë, nëse një njeri mund të dallojë nëse një grup shkëmbimesh të shkruara vijnë nga një njeri apo një makinë.
Alan Turing
Është një test i zgjuar, por përpjekjet për ta tejkaluar atë, kanë nxitur konfuzion të madh. Jo pa dyshime e paqartësi, së fundmi, studiuesit pohuan se e “kishin kaluar testin me një chatbot që pretendonte se ishte një ukrainas 13-vjeçar me një kavie shtëpijake që prodhonte Odet e lumturisë të Beethoven-it”.
Turing dha një tjetër kontribut të madh në IA që shpesh neglizhohet, thotë Girolami. Një letër e deklasifikuar nga koha e shkencëtarit në Bletchley Park zbulon se si ai përdori një metodë të quajtur statistika Bayesian për të deshifruar mesazhet e koduara. Fjalë për fjalë, Turing dhe ekipi i tij përdorën statistikat për t’iu përgjigjur pyetjeve të tilla si: “Cila është probabiliteti që kjo fjalë e veçantë gjermane të krijojë këtë grup të koduar shkronjash?”
Një qasje e ngjashme Bayesian tani fuqizon programet gjeneruese të IA për të prodhuar ese, vepra arti dhe imazhe të njerëzve që nuk kanë ekzistuar kurrë. “Ka pasur një univers të tërë paralel aktiviteti mbi statistikat Bayesian gjatë 70 viteve të fundit që mundësoi plotësisht inteligjencën artificiale gjeneruese që shohim sot, dhe ne mund ta gjurmojmë këtë deri në punën e Turing-ut mbi enkriptimin,” thotë Girolami.
Termi “inteligjencë artificiale” nuk u shfaq deri në vitin 1955. John McCarthy, shkencëtar kompjuteri në Kolegjin Dartmouth, në New Hampshire, e përdori frazën në një propozim për një shkollë verore. Ai ishte jashtëzakonisht optimist për perspektivat për përparim në këtë drejtim.
“Ne mendojmë se mund të bëhet një përparim i rëndësishëm … nëse një grup shkencëtarësh të zgjedhur me kujdes punojnë së bashku për disa muaj,” shkroi ai. “Kjo është periudha e pasluftës,” thotë Dr Jonnie Penn, profesor i asociuar i mësimdhënies së etikës së IA në Universitetin e Kembrixhit. “Qeveria amerikane e kishte kuptuar që armët bërthamore e kishin fituar luftën. Kështu që shkenca dhe teknologjia tashmë dëshmonin të ishin në një nivel më të lartë.”
Në këtë rast, fillimisht, shkencëtarët e mbledhur bënë përparim të papërfillshëm. Megjithatë, studiuesit u hodhën në një epokë të artë të ndërtimit të programeve dhe sensorëve që pajisnin kompjuterët për të perceptuar dhe për t’iu përgjigjur mjediseve të tyre, për të zgjidhur problemet, për të planifikuar detyrat dhe për t’u përballur me gjuhën njerëzore.
Robotët e kompjuterizuar kryenin komandat e bëra në anglishte të thjeshtë në monitorët e ngathët të tubave me rreze katodike, ndërsa laboratorët demonstruan robotë që rrotulloheshin duke u përplasur në tavolina dhe kabinete dosjesh.
Duke folur për revistën Life në vitin 1970, Marvin Minsky i Institutit të Teknologjisë në Masaçusets, një figurë e madhe në IA, tha se në tre deri në tetë vjet bota do të kishte një makinë me inteligjencën e përgjithshme të një njeriu mesatar. Do të ishte në gjendje të lexonte Shekspirin, të lyejë një makinë, të tregojë shaka, të bëjë politikë në zyrë dhe madje të jetë aftë të përfshihet edhe në një grindje. Brenda disa muajsh, duke mësuar vetë, fuqitë e tij do të ishin “të pallogaritshme”.
Flluska shpërtheu në vitet 1970. Në Mbretërinë e Bashkuar, Sir James Lighthill, një matematikan i shquar, shkroi një raport të ashpër mbi përparimin e pakët të IA, duke shkaktuar shkurtime të menjëhershme të financimit. Ringjallja erdhi me një valë të re shkencëtarësh që e panë dijen si zgjidhje për problemet e IA. Ata synonin të kodonin ekspertizën njerëzore direkt në kompjuterë.
Më ambicioz – megjithëse janë përdorur fjalë të tjera – ishte Cyc (Cyc, është një projekt afatgjatë i inteligjencës artificiale që synon të mbledhë një ontologji dhe bazë njohurish gjithëpërfshirëse që përfshin konceptet dhe rregullat bazë për mënyrën se si funksionon bota.
Duke shpresuar për të kapur njohuritë e sensit të përbashkët, Cyc fokusohet në njohuritë e nënkuptuara që platformat e tjera të IA mund të marrin si të mirëqenë. Kjo është në kontrast me faktet që mund të gjeni diku në internet ose të merrni nëpërmjet një motori kërkimi ose Wikipedia. Cyc u mundëson arsyetuesve semantikë të kryejnë arsyetime të ngjashme me njeriun dhe të jenë më pak “të brishtë” kur përballen me situata të reja.).
Ai synonte të zotëronte të gjitha njohuritë që një person i arsimuar përdorte në jetën e tij të përditshme. Kjo do të thoshte jo vetëm të kodosh më shumë, por t’i bësh ekspertët të shpjegonin se si i merrnin vendimet – dhe kodimi i informacionit në një kompjuter – doli të ishte shumë më i vështirë nga sa e imagjinonin shkencëtarët.
Megjithatë, IA e shekullit të njëzetë pati suksese të dukshme. Në vitin 1997, Deep Blue i IBM mundi mjeshtrin e shahut, Garry Kasparov. Konkursi u bë tituj globalë, me Newsweek që shpalli “Qëndrimi i fundit i trurit”.
Pamje e audiencës në turneun e shahut, me dy monitorë në plan të parë: njëri tregon një tabelë shahu, tjetri tregon Kasparov, me kokën në duar. Gjatë një loje, Deep Blue skanoi 200 pozicione në sekondë dhe shikoi gati 80 lëvizje përpara Kasparovit.
Duke kujtuar konkursin, Kasparov tha se makina “luante si një zot”. Mattheë Jones, një profesor i historisë në Universitetin Princeton dhe bashkëautor i librit të vitit 2023, thotë: “Ishte, në një farë kuptimi, një gulçim i fundit i madh i një mënyre më tradicionale të IA”.
Problemet e botës reale janë më të rrëmujshme: rregullat janë të paqarta, informacioni mungon. Një IA që luan shah nuk mund të ndërrojë detyrat për të planifikuar ditën tuaj, për të pastruar shtëpinë ose për të drejtuar një makinë. “Shahu nuk është standardi më i mirë për inteligjencën artificiale,” thotë Prof Eleni Vasilaki, drejtuese e departamentit të makinerive në Universitetin e Sheffield.
Që nga Deep Blue, hapat më tërheqës në inteligjencën artificiale kanë ardhur nga një qasje krejtësisht e ndryshme, ajo që fillon te Rosenblatt dhe Perceptron-i i tij i klasifikimit të kartave. Rrjetet e thjeshta nervore me një shtresë të bazuar në Perceptron nuk ishin shumë të dobishme: kishte kufizime themelore për atë që ata mund të arrinin. Por studiuesit e dinin se rrjetet nervore me shumë shtresa do të ishin shumë më efektive. Ajo që i largoi ata ishte mungesa e fuqisë kompjuterike dhe ndonjë qasje apo kuptim se si t’i stërviteshin.
Zbulimi i rëndësishëm erdhi në vitin 1986 kur studiues, duke përfshirë Geoffrey Hinton në Universitetin Carnegie Mellon, zhvilluan “shpërndarjen prapa” si një mënyrë për të mësuar rrjetet. Në vend që “neuronet” e vetme të komunikojnë me fqinjët e tyre, shtresa të tëra tani mund të flasin me njëri-tjetrin.
Le të themi se ju ndërtoni një rrjet nervor për të renditur imazhet e koteleve nga imazhet e maceve. Imazhi futet dhe përpunohet nga shtresat e ndryshme të rrjetit. Çdo shtresë shikon karakteristika të ndryshme, ndoshta skajet dhe skicat ose leshin dhe fytyrat, dhe dërgon rezultate në shtresën tjetër. Në shtresën përfundimtare, rrjeti nervor llogarit një probabilitet që imazhi të jetë një mace ose një qen.
Por le të themi se rrjeti e ka gabim: Vetura Rover nuk do të mbante kurrë një zile në qafë! Ju mund të llogarisni madhësinë e gabimit dhe të punoni mbrapsht përmes rrjetit dhe të rregulloni peshat e neuroneve – në thelb fuqinë e lidhjeve të rrjetit – për të zvogëluar gabimin. Procesi përsëritet vazhdimisht dhe është mënyra se si mëson rrjeti.
Përparimi i shtyu rrjetet nervore përsëri në qendër të vëmendjes, por edhe një herë studiuesit u penguan nga mungesa e fuqisë kompjuterike dhe e të dhënave. Kjo ndryshoi në vitet 2000 me procesorë më të fuqishëm, veçanërisht njësi të përpunimit grafik për lojëra video, dhe sasi të mëdha të dhënash, falë një interneti plot fjalë, imazhe dhe audio.
Një tjetër ndryshim hapi, erdhi në vitin 2012 kur shkencëtarët demonstruan se ndërtimi i rrjeteve nervore “të thella” – ato me shumë shtresa – ishin jashtëzakonisht të fuqishme. Hinton dhe të tjerët zbuluan AlexNet, një rrjet me tetë shtresa me rreth 10,000 neurone, i cili mposhti opozitën në sfidën ImageNet, një konkurs ndërkombëtar që sfidon IA të njohë imazhe nga një bazë të dhënash me miliona njësi.
“AlexNet ishte mësimi i parë që shkalla ka vërtet rëndësi,” thotë Prof Mirella Lapata, një eksperte për përpunimin e gjuhës natyrore në Universitetin e Edinburgut. “Njerëzit mendonin se nëse ne mund të vendosnim njohuritë që dimë për një detyrë në një kompjuter, kompjuteri do të ishte në gjendje ta kryente atë detyrë. Por mendimi ka ndryshuar. Llogaritja dhe shkalla janë shumë më të rëndësishme se njohuritë njerëzore.”
Pas AlexNet, arritjet erdhën të mëdha dhe të shpejta. DeepMind i Google, i themeluar në vitin 2010 me një mision për të “zgjidhur inteligjencën”, zbuloi një algoritëm që mësoi të luante lojëra klasike Atari nga e para. Ai zbuloi, përmes provave dhe gabimeve, se si të triumfohet në Breakout duke thyer një kanal përmes njërës anë të murit dhe duke e dërguar topin në hapësirën prapa.
Një tjetër algoritëm DeepMind, AlphaGo, mundi kampionin Go Lee Sedol në lojën kineze. Që atëherë, firma ka lëshuar AlphaFold. Pasi mësoi se si format e proteinave lidhen me përbërjen e tyre kimike, ai parashikoi strukturat 3D për 200 metra më shumë, duke llogaritur pothuajse çdo proteinë të njohur për shkencën. Strukturat tani po drejtojnë një valë të re të shkencës mjekësore.
ChatGPT po përdoret në një telefon.
Titujt e shumtë rrodhën nga revolucioni i të mësuarit të thellë, por këta tani duken si valëzime të lehta përpara valës së baticës të lëshuar nga IA gjeneruese. Mjetet e reja të fuqishme, të ilustruara nga ChaptGPT i OpenAI, të lëshuara në 2022, emërtohen për aftësitë e tyre në gjenerim: ese, poema, letra për aplikim për punë, vepra arti, filma, muzikë klasike.
Motori në zemër të IA gjeneruese njihet si transformator. Zhvilluar nga studiuesit e Google, fillimisht për të përmirësuar përkthimin, u përshkrua në një punim të vitit 2017, titulli i të cilit, Attention Is All You Need, është në një hit të Beatles. Edhe krijuesit e tij duket se e kanë nënvlerësuar ndikimin që do të kishte.
Llion Jones, një bashkautor i gazetës dhe përgjegjës për kompozimin e saj, që atëherë është larguar nga Google për të bashkëthemeluar një kompani të re, Sakana IA. Duke folur nga zyra e tij në Tokio, ku po realizonte një eksperiment të ri transformatori, ai reflektoi në pritjen e gazetës.
“Ne menduam se po krijonim diçka krejt të përgjithshme, nuk ishte krijuar për të bërë përkthim në mënyrë specifike. Por nuk mendoj se kemi menduar ndonjëherë se do të ishte ky gjeneral, që do të merrte pushtetin,” thotë ai. “Pothuajse gjithçka, tani funksionon me transformatorë.”
Përpara transformatorit, përkthyesit e drejtuar nga IA zakonisht mësonin gjuhën duke përpunuar fjali njëra pas tjetrës. Qasja ka të metat e saj. Përpunimi i fjalëve në rend është i ngadalshëm dhe nuk funksionon mirë për fjalitë e gjata: në kohën kur arrihen fjalët e fundit, të parat janë harruar.
Transformatori i zgjidh këto probleme me ndihmën e një procesi të quajtur vëmendje. Ai lejon rrjetin të përpunojë të gjitha fjalët në një fjali menjëherë dhe të kuptojë secilën fjalë në kontekstin e atyre që e rrethojnë.
GPT i OpenAI – që qëndron për “transformator gjenerues të trajnuar paraprakisht” – dhe modele të ngjashme në gjuhë të mëdha mund të prodhojnë pasazhe teksti të gjata dhe të rrjedhshme, nëse jo gjithmonë plotësisht të besueshme. Të trajnuar për sasi të mëdha të dhënash, duke përfshirë shumicën e tekstit në internet, ata mësojnë veçori të gjuhës që u shmangën algoritmeve të mëparshme.
Ndoshta më e habitshme dhe më emocionuese është se transformatorët mund të kthejnë vëmendjen e tyre në një grup më të gjerë detyrash. Pasi të ketë mësuar veçoritë e të dhënave që ushqehen – muzikë, video, imazhe dhe fjalim – mund t’i kërkohet të krijojë më shumë. Në vend që të ketë nevojë për rrjete të ndryshme nervore për të përpunuar media të ndryshme, transformatori mund të trajtojë shumë njësi të dhënash njëherësh.
“Ky është një ndryshim drastik. Është një moment i vërtetë themelor teknologjik,” thotë Michael Wooldridge, profesor i shkencave kompjuterike në Universitetin e Oksfordit dhe autor i librit “Rrugës drejt Makinerive të Ndërgjegjshme”. “Është e qartë se Google nuk e vuri re potencialin. E kam të vështirë të besoj se ata do ta kishin nxjerrë informacionin nëse do të kuptonin se do të ishte zhvillimi më i rëndësishëm i IA që kemi parë deri më tani.”
Wooldridge sheh aplikime në CCTV, me rrjetet e transformatorëve që zbulojnë krimet ndërsa ato ndodhin. “Ne do të shkojmë në një botë të IA gjeneruese ku Elvis dhe Buddy Holly kthehen nga të vdekurit. Ku, nëse jeni adhurues i serialit origjinal Star Trek, IA gjeneruese do të krijojë aq episode sa të doni, me zëra që tingëllojnë si William Shatner dhe Leonard Nimoy. Ju nuk do të jeni në gjendje të bëni dallimin.”
Por revolucioni ka një kosto. Modelet e trajnimit si ChatGPT kërkojnë sasi të mëdha fuqie kompjuterike dhe emetimet e karbonit janë të mëdha. Inteligjenca artificiale gjeneruese “na ka vënë në një kurs përplasjeje me krizën klimatike”, thotë Penn.
“Në vend që ta ndërtojmë shoqërinë tonë që të funksionojë me IA gjatë gjithë kohës, çdo ditë, le ta përdorim atë për atë që është e dobishme dhe të mos e humbim kohën tonë atje ku nuk është.”
The Guardian