När de som kan något om AI är oroliga – borde inte vi vara det också?

av | feb 14, 2026

Ledande AI-experter lämnar nu sina positioner hos giganter som OpenAI, Anthropic och Google i en växande protestvåg. Mrinank Sharma, säkerhetschef på Anthropic, är den senaste i raden att säga upp sig med varningen att företagets praxis inte längre rimmar med dess uttalade värderingar.

Mrinank Sharmasällar sig till Jan Leike, som tidigare lämnade OpenAI av samma anledning: upplevelsen att kommersiella genvägar prioriteras framför grundläggande säkerhetskrav.

Avhoppen handlar inte om missnöje med lön eller arbetsvillkor. Flera av dessa ingenjörer och forskare har tackat nej till omfattande optionsprogram och stora summor pengar för att kunna tala öppet om riskerna. Daniel Kokotajlo lämnade OpenAI och förlorade därmed betydande ersättning, med motiveringen att han ville kunna varna för AI-risker utan att vara bunden av lojalitetsavtal.

VD efterlyser striktare regler

Oron delas numera även på ledningsnivå. Under det internationella mötet i Davos nyligen höll Anthropics vd Dario Amodei ett anförande där han efterlyste hårdare och striktare lagstiftning kring AI. Budskapet var tydligt: utvecklingen går nu så fort att kommersialiseringen riskerar att köra över både säkerhet och integritet.

Under mötet i Davos betonade Dario Amodei att frivilliga åtaganden från företagens sida inte längre räcker till. Han efterlyste ett skifte från självreglering till bindande lagstiftning inom flera områden:

Statlig testning av modeller

Ett centralt förslag är att myndigheter måste få tillgång till de mest kraftfulla AI-modellerna för säkerhetstester innan de släpps på marknaden. Detta ska säkerställa att modellerna inte kan användas för att exempelvis skapa biologiska vapen eller genomföra storskaliga cyberattacker.

Ansvarsskyldighet för skador

Diskussionerna rörde även lagar som tydliggör att utvecklare av AI-modeller kan hållas juridiskt ansvariga för skador som deras system orsakar. Syftet är att tvinga fram en högre grad av försiktighet i utvecklingsfasen genom ekonomiska och juridiska incitament.

Krav på transparens kring träningsdata

Det finns ett starkt tryck på att införa striktare regler för hur data samlas in och används. Detta inkluderar krav på att företag öppet redovisar vilken typ av material som används för att träna modellerna, för att motverka upphovsrättsbrott och manipulation.

Internationell harmonisering

Amodei efterlyste ett ramverk som liknar det internationella samarbetet kring civil kärnkraft eller flygsäkerhet. Tanken är att förhindra att företag flyttar sin verksamhet till länder med svagare reglering, en så kallad ”kapplöpning mot botten”.

En växande lista av kritiker

Listan över experter som lämnat sina uppdrag på grund av etisk oro har blivit lång:

  • Mrinank Sharma – säkerhetschef på Anthropic. Avgick 2026 och varnade för att värderingar och praktik inte längre gick ihop samt att världen kan vara i fara.
  • Zoë Hitzig – arbetade med säkerhet och produkt på OpenAI. Lämnade efter oro för manipulation av användare och användning av privata uppgifter.
  • Daniel Kokotajlo – governance-forskare på OpenAI. Sade upp sig för att kunna tala öppet om AI-risker trots att han förlorade stor ersättning.
  • Daniel Ziegler – forskare kopplad till OpenAI och tidigare DeepMind. Kritiserade att kommersialisering prioriteras framför säkerhet.
  • Steven Adler – säkerhetsforskare på OpenAI. Lämnade och kritiserade företagets riskhantering.
  • Rosie Campbell – säkerhetsforskare på OpenAI. Avgick på grund av oro kring beredskap inför avancerad AI.
  • Geoffrey Hinton – pionjär inom neurala nätverk på Google. Lämnade för att kunna varna för risker som desinformation och samhällspåverkan.
  • Jan Leike – alignment-forskare på OpenAI. Avgick och gick till ett mer säkerhetsfokuserat företag efter oro kring prioriteringar.

Gemensamt för dessa avhopp är beskrivningen av en bransch där beredskapen inför avancerad AI anses otillräcklig. När de individer som faktiskt bygger tekniken väljer att gå, skickar det en tydlig signal om att den interna kontrollen inte längre räcker till.

Så frågan är – om de som verkligen kan något om AI är oroliga – borde inte vi vara det också?

Källa: Forbes


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

Magasin Macken använder AI för att samla in information och underlag för de texter som publiceras. Vi använder även AI för att skapa bilder och illustrationer. Dessa märks alltid med att det är AI-bilder om bilderna är fotorealistiska. I förekommande fall så läggs även till länkar till källa och referenser till i texterna som alltid kontrolleras av en mänsklig skribent - som är den som skriver och redigerar alla texter till alla väsentliga delar.

Vill du kommentera den här texten, komma med förslag, kritik eller ställa frågor så gör du det enklast i något av de sociala medier som jag och Magasin Macken finns med i. Länkarna hittar du nedan.

  • Facebook
  • Instagram
  • Bluesky
  • Threads
  • Mastodon
  • LinkedIn
  • YouTube
  • Vimeo
  • Twitter
  • RSS
  • E-Mail

De senaste inläggen: