Sam Altman, CEO i ChatGPT OpenAI, gjatë një udhëtimi në Korenë e Jugut të premten kërkoi një rregullim të koordinuar ndërkombëtar të inteligjencës artificiale gjeneruese, teknologjia që mbështet chatbot-in e tij të famshëm.
Meqenëse këto sisteme bëhen shumë, shumë të fuqishme, kjo kërkon kujdes të veçantë dhe ka ndikim global. Pra, kërkon gjithashtu bashkëpunim global.
Ai është një nga qindra ekspertët kryesorë që kohët e fundit paralajmëroi për rrezikun e zhdukjes së njerëzve nga AI, duke thënë se zbutja e kësaj mundësie duhet të jetë një përparësi globale krahas rreziqeve të tjera në shkallë shoqërore si pandemitë dhe lufta bërthamore. Altman shpjegoi të premten se shqetësimi i tij nuk ishte paaftësia jonë për t’u përshtatur, por është shpejtësia me të cilën e gjithë kjo mund të ndodh.
Nëse studioni historinë e revolucioneve teknologjike, që duket se përafërsisht në dy breza, ne mund të përshtatemi me pothuajse çdo ndryshim të tregut të punës. Por nëse e gjithë kjo ndodh në 10 vjet, kjo është një sfidë e re.
Në një deklaratë të së premtes, Presidenti Yoon theksoi rëndësinë e standardeve ndërkombëtare për të parandaluar “efektet anësore” të padëshiruara që lidhen me platforma të tilla si ChatGPT, duke thënë se kishte nevojë për të vepruar “me shpejtësi”. Muajin e kaluar, zyrtarët e lartë amerikanë dhe evropianë u takuan në Suedi për të diskutuar mbi mbikëqyrjen e AI, ku u zotuan të ndihmojnë në krijimin e kodeve vullnetare të sjelljes, sipas Sekretarit të Shtetit të SHBA Antony Blinken, siç citohet nga Reuters. Sipas Elon Musk:
Në Kinë, autoritetet do të “fillojnë gjithashtu rregullimin e AI”.
ChatGPT, i cili mund të trajtojë një mori detyrash, duke përfshirë përgjigjen e kërkesave dhe shkrimin e eseve, tashmë ka bërë që shumë biznese të rimendojnë se si duhet të punojnë njerëzit. Në mars, zhvilluesi i tij OpenAI zbuloi një version më të avancuar të softuerit që qëndron pas robotit, GPT-4, duke treguar se si mund të thjeshtojë kodimin, të ndihmojë në krijimin e faqeve të internetit dhe të kalojë provimet me nota të larta.