OpenAI har nått en överenskommelse med USA:s försvarsdepartement om att installera sina AI-modeller i myndighetens nätverk. Beskedet kom från bolagets vd Sam Altman via plattformen X. I sitt inlägg betonade han att två av företagets mest centrala säkerhetsprinciper ligger fast: förbud mot inhemsk massövervakning och krav på mänskligt ansvar vid användning av våld, även när det gäller autonoma vapensystem.
Enligt Altman har dessa principer skrivits in i avtalet med myndigheten, som i vissa sammanhang benämns Department of War, och båda parter ska ha förbundit sig att respektera dem.
Affären har slutits kort efter att Donald Trump beordrat federala myndigheter att sluta använda Claude och andra tjänster från Anthropic. Försvarsminister Pete Hegseth har tidigare signalerat att Anthropic skulle kunna klassas som en leverantörsrisk om bolaget vägrar att ta bort de skyddsmekanismer som hindrar tekniken från att användas för massövervakning av amerikanska medborgare eller för helt autonoma vapensystem.
Modeller
Det är oklart varför regeringen valde att gå vidare med OpenAI om även deras modeller omfattas av liknande skyddsräcken. Altman har dock uppgett att bolaget vill att samma villkor ska erbjudas samtliga AI-företag som samarbetar med staten. Jeremy Lewin, hög tjänsteman med ansvar för internationellt bistånd och humanitära frågor, har uppgett att departementets kontrakt hänvisar till gällande rättsliga befogenheter och innehåller gemensamt överenskomna säkerhetsmekanismer. Både OpenAI och xAI, som tidigare tecknat avtal om att distribuera Grok i klassificerade system, ska ha accepterat dessa villkor. Enligt Lewin var det samma kompromiss som Anthropic erbjöds men avböjde.
Anthropic, som inledde samarbete med den amerikanska staten 2024, har stått fast vid sin linje. I ett uttalande publicerat bara timmar innan Altman presenterade överenskommelsen upprepade bolaget sitt motstånd. Företaget klargjorde att inga påtryckningar från försvarsdepartementet kommer att förändra dess inställning till massövervakning inom landet eller till helt autonoma vapensystem och att en eventuell klassning som leverantörsrisk skulle bestridas i domstol.
Framhållit
Altman har samtidigt framhållit att OpenAI kommer att införa tekniska skydd för att säkerställa att modellerna används enligt avtalade ramar. Ingenjörer ska arbeta tillsammans med myndigheten för att upprätthålla säkerheten och distributionen ska ske via molnbaserade nätverk. I dagsläget är OpenAI inte etablerat på Amazon Web Services, vilket är den molninfrastruktur som staten använder i stor omfattning. Bolaget har dock nyligen presenterat ett partnerskap med Amazon för att erbjuda sina modeller via AWS till företagskunder, något som på sikt kan förändra förutsättningarna.
