Ett öppet brev som publicerades på onsdagen kräver ett förbud mot utvecklingen av artificiell intelligens som kan klassas som ”superintelligent”, tills det finns en bred vetenskaplig enighet om att sådan teknik kan skapas på ett säkert sätt och med allmänhetens stöd.
Uttalandet, som kommer från den ideella organisationen Future of Life Institute, har undertecknats av över 700 personer – däribland Nobelpristagare, teknikveteraner, politiker, konstnärer och offentliga personer som prins Harry och Meghan Markle, hertigparet av Sussex.
Brevet
Brevet speglar den växande oron för projekt hos teknikjättar som Google, OpenAI och Meta, som arbetar för att bygga artificiell intelligens som kan överträffa människor i nästan alla kognitiva uppgifter. Enligt brevet har dessa ambitioner väckt farhågor om massarbetslöshet till följd av automatisering, förlust av mänsklig kontroll och värdighet, risker för nationell säkerhet och möjligheten till djupgående sociala eller existentiella konsekvenser.
”Vi kräver ett förbud mot utvecklingen av superintelligens, som inte får hävas förrän det finns en bred vetenskaplig enighet om att det kan göras säkert och kontrollerbart – och med starkt stöd från allmänheten”, står det i brevet.
Bland undertecknarna finns AI-pionjärerna Yoshua Bengio och Geoffrey Hinton, båda mottagare av Turingpriset, Apples medgrundare Steve Wozniak, entreprenören Richard Branson och skådespelaren Joseph Gordon-Levitt. På den politiska sidan återfinns namn som Steve Bannon, tidigare chefsstrateg i Vita huset under Donald Trump, Susan Rice, tidigare nationell säkerhetsrådgivare i Obamaadministrationen, samt Mike Mullen, före detta ordförande för USA:s försvarsstab.
Framhåller
Det öppna brevet framhåller att även om AI har en ”enastående” potential att förbättra hälsa och välstånd, innebär utvecklingen av superintelligenta system risker som ännu inte har hanterats tillräckligt. Förespråkarna varnar för att kapplöpningen mellan stora teknikföretag kan leda till att utvecklingen går bortom en punkt där kontroll och tillsyn längre inte är möjliga. Oro kring nationell säkerhet, medborgerliga friheter och människans framtida handlingsutrymme står i centrum – liksom varningar för oförutsedda konsekvenser om maskiner når eller överträffar mänsklig intelligens.
Paus
Future of Life Institute publicerade redan 2023 ett uppmärksammat öppet brev som uppmanade till en paus i utvecklingen av kraftfulla AI-modeller, en vädjan som ignorerades av de ledande teknikbolagen. Enligt organisatörerna bakom den nya kampanjen är frågan nu ännu mer akut. De hänvisar till opinionsundersökningar som visar att många människor är skeptiska till att gå vidare mot superintelligens innan säkerheten kan garanteras och stark tillsyn finns på plats. Om regeringar hinner ingripa i tid – eller om företagen kan reglera sig själva – är fortfarande oklart.
Läs mer
Claude Code blir tillgänglig på fler plattformar med nytt webbgränssnitt
OpenAI lanserar ChatGPT Atlas – webbläsaren med inbyggd AI-assistent