Ledande AI-experter lämnar nu sina positioner hos giganter som OpenAI, Anthropic och Google i en växande protestvåg. Mrinank Sharma, säkerhetschef på Anthropic, är den senaste i raden att säga upp sig med varningen att företagets praxis inte längre rimmar med dess uttalade värderingar.
Mrinank Sharmasällar sig till Jan Leike, som tidigare lämnade OpenAI av samma anledning: upplevelsen att kommersiella genvägar prioriteras framför grundläggande säkerhetskrav.
Avhoppen handlar inte om missnöje med lön eller arbetsvillkor. Flera av dessa ingenjörer och forskare har tackat nej till omfattande optionsprogram och stora summor pengar för att kunna tala öppet om riskerna. Daniel Kokotajlo lämnade OpenAI och förlorade därmed betydande ersättning, med motiveringen att han ville kunna varna för AI-risker utan att vara bunden av lojalitetsavtal.
VD efterlyser striktare regler
Oron delas numera även på ledningsnivå. Under det internationella mötet i Davos nyligen höll Anthropics vd Dario Amodei ett anförande där han efterlyste hårdare och striktare lagstiftning kring AI. Budskapet var tydligt: utvecklingen går nu så fort att kommersialiseringen riskerar att köra över både säkerhet och integritet.
Under mötet i Davos betonade Dario Amodei att frivilliga åtaganden från företagens sida inte längre räcker till. Han efterlyste ett skifte från självreglering till bindande lagstiftning inom flera områden:
Statlig testning av modeller
Ett centralt förslag är att myndigheter måste få tillgång till de mest kraftfulla AI-modellerna för säkerhetstester innan de släpps på marknaden. Detta ska säkerställa att modellerna inte kan användas för att exempelvis skapa biologiska vapen eller genomföra storskaliga cyberattacker.
Ansvarsskyldighet för skador
Diskussionerna rörde även lagar som tydliggör att utvecklare av AI-modeller kan hållas juridiskt ansvariga för skador som deras system orsakar. Syftet är att tvinga fram en högre grad av försiktighet i utvecklingsfasen genom ekonomiska och juridiska incitament.
Krav på transparens kring träningsdata
Det finns ett starkt tryck på att införa striktare regler för hur data samlas in och används. Detta inkluderar krav på att företag öppet redovisar vilken typ av material som används för att träna modellerna, för att motverka upphovsrättsbrott och manipulation.
Internationell harmonisering
Amodei efterlyste ett ramverk som liknar det internationella samarbetet kring civil kärnkraft eller flygsäkerhet. Tanken är att förhindra att företag flyttar sin verksamhet till länder med svagare reglering, en så kallad ”kapplöpning mot botten”.
En växande lista av kritiker
Listan över experter som lämnat sina uppdrag på grund av etisk oro har blivit lång:
- Mrinank Sharma – säkerhetschef på Anthropic. Avgick 2026 och varnade för att värderingar och praktik inte längre gick ihop samt att världen kan vara i fara.
- Zoë Hitzig – arbetade med säkerhet och produkt på OpenAI. Lämnade efter oro för manipulation av användare och användning av privata uppgifter.
- Daniel Kokotajlo – governance-forskare på OpenAI. Sade upp sig för att kunna tala öppet om AI-risker trots att han förlorade stor ersättning.
- Daniel Ziegler – forskare kopplad till OpenAI och tidigare DeepMind. Kritiserade att kommersialisering prioriteras framför säkerhet.
- Steven Adler – säkerhetsforskare på OpenAI. Lämnade och kritiserade företagets riskhantering.
- Rosie Campbell – säkerhetsforskare på OpenAI. Avgick på grund av oro kring beredskap inför avancerad AI.
- Geoffrey Hinton – pionjär inom neurala nätverk på Google. Lämnade för att kunna varna för risker som desinformation och samhällspåverkan.
- Jan Leike – alignment-forskare på OpenAI. Avgick och gick till ett mer säkerhetsfokuserat företag efter oro kring prioriteringar.
Gemensamt för dessa avhopp är beskrivningen av en bransch där beredskapen inför avancerad AI anses otillräcklig. När de individer som faktiskt bygger tekniken väljer att gå, skickar det en tydlig signal om att den interna kontrollen inte längre räcker till.
Så frågan är – om de som verkligen kan något om AI är oroliga – borde inte vi vara det också?
Källa: Forbes
