När de som kan något om AI är oroliga – borde inte vi vara det också?

När de som kan något om AI är oroliga – borde inte vi vara det också?

Ledande AI-experter lämnar nu sina positioner hos giganter som OpenAI, Anthropic och Google i en växande protestvåg. Mrinank Sharma, säkerhetschef på Anthropic, är den senaste i raden att säga upp sig med varningen att företagets praxis inte längre rimmar med dess uttalade värderingar.

Mrinank Sharmasällar sig till Jan Leike, som tidigare lämnade OpenAI av samma anledning: upplevelsen att kommersiella genvägar prioriteras framför grundläggande säkerhetskrav.

Avhoppen handlar inte om missnöje med lön eller arbetsvillkor. Flera av dessa ingenjörer och forskare har tackat nej till omfattande optionsprogram och stora summor pengar för att kunna tala öppet om riskerna. Daniel Kokotajlo lämnade OpenAI och förlorade därmed betydande ersättning, med motiveringen att han ville kunna varna för AI-risker utan att vara bunden av lojalitetsavtal.

VD efterlyser striktare regler

Oron delas numera även på ledningsnivå. Under det internationella mötet i Davos nyligen höll Anthropics vd Dario Amodei ett anförande där han efterlyste hårdare och striktare lagstiftning kring AI. Budskapet var tydligt: utvecklingen går nu så fort att kommersialiseringen riskerar att köra över både säkerhet och integritet.

Under mötet i Davos betonade Dario Amodei att frivilliga åtaganden från företagens sida inte längre räcker till. Han efterlyste ett skifte från självreglering till bindande lagstiftning inom flera områden:

Statlig testning av modeller

Ett centralt förslag är att myndigheter måste få tillgång till de mest kraftfulla AI-modellerna för säkerhetstester innan de släpps på marknaden. Detta ska säkerställa att modellerna inte kan användas för att exempelvis skapa biologiska vapen eller genomföra storskaliga cyberattacker.

Ansvarsskyldighet för skador

Diskussionerna rörde även lagar som tydliggör att utvecklare av AI-modeller kan hållas juridiskt ansvariga för skador som deras system orsakar. Syftet är att tvinga fram en högre grad av försiktighet i utvecklingsfasen genom ekonomiska och juridiska incitament.

Krav på transparens kring träningsdata

Det finns ett starkt tryck på att införa striktare regler för hur data samlas in och används. Detta inkluderar krav på att företag öppet redovisar vilken typ av material som används för att träna modellerna, för att motverka upphovsrättsbrott och manipulation.

Internationell harmonisering

Amodei efterlyste ett ramverk som liknar det internationella samarbetet kring civil kärnkraft eller flygsäkerhet. Tanken är att förhindra att företag flyttar sin verksamhet till länder med svagare reglering, en så kallad ”kapplöpning mot botten”.

En växande lista av kritiker

Listan över experter som lämnat sina uppdrag på grund av etisk oro har blivit lång:

  • Mrinank Sharma – säkerhetschef på Anthropic. Avgick 2026 och varnade för att värderingar och praktik inte längre gick ihop samt att världen kan vara i fara.
  • Zoë Hitzig – arbetade med säkerhet och produkt på OpenAI. Lämnade efter oro för manipulation av användare och användning av privata uppgifter.
  • Daniel Kokotajlo – governance-forskare på OpenAI. Sade upp sig för att kunna tala öppet om AI-risker trots att han förlorade stor ersättning.
  • Daniel Ziegler – forskare kopplad till OpenAI och tidigare DeepMind. Kritiserade att kommersialisering prioriteras framför säkerhet.
  • Steven Adler – säkerhetsforskare på OpenAI. Lämnade och kritiserade företagets riskhantering.
  • Rosie Campbell – säkerhetsforskare på OpenAI. Avgick på grund av oro kring beredskap inför avancerad AI.
  • Geoffrey Hinton – pionjär inom neurala nätverk på Google. Lämnade för att kunna varna för risker som desinformation och samhällspåverkan.
  • Jan Leike – alignment-forskare på OpenAI. Avgick och gick till ett mer säkerhetsfokuserat företag efter oro kring prioriteringar.

Gemensamt för dessa avhopp är beskrivningen av en bransch där beredskapen inför avancerad AI anses otillräcklig. När de individer som faktiskt bygger tekniken väljer att gå, skickar det en tydlig signal om att den interna kontrollen inte längre räcker till.

Så frågan är – om de som verkligen kan något om AI är oroliga – borde inte vi vara det också?

Källa: Forbes

Statliga hackare använder Gemini för avancerade cyberattacker

Statliga hackare använder Gemini för avancerade cyberattacker

blank

Statligt stödda hackare använder nu Googles AI-modell Gemini för att understödja alla stadier i sina attacker, från inledande rekognosering till åtgärder efter ett intrång. En ny rapport från Google Threat Intelligence Group (GTIG) visar att aktörer från Kina, Iran, Nordkorea och Ryssland utnyttjar tekniken för att profilera mål, skapa nätfiskemeddelanden, översätta texter och skriva kod för skadlig programvara.

Även cyberkriminella visar ett ökat intresse för AI-verktyg. Tekniken används bland annat i så kallade ClickFix-kampanjer för att lura användare att installera spionprogrammet AMOS på macOS via manipulerade sökresultat och annonser.

Automatiserade angrepp och kodning

Kinesiska hotaktörer har enligt rapporten skapat expertpersonor i Gemini för att automatisera analyser av sårbarheter. Genom att dikta upp scenarier har de fått modellen att ta fram testplaner för att kringgå brandväggar och utföra SQL-injektioner mot specifika mål i USA.

Iranska APT42 har använt modellen som en utvecklingsplattform för att påskynda skapandet av skräddarsydda verktyg för social manipulation och kodning av skadlig programvara. Google noterar även att AI har använts för att utveckla nya funktioner i befintliga hot som nätfiskekitet CoinBait och programmet HonestCue. Det sistnämnda använder Geminis API för att generera kod som sedan körs direkt i datorns minne.

Stöld av AI-modeller

Rapporten lyfter även fram ett växande problem med stöld av själva AI-modellerna genom en metod som kallas kunskapsdestillation. Genom att systematiskt ställa tusentals frågor till Gemini försöker angripare återskapa modellens beslutsfattande och funktionalitet till en bråkdel av den ursprungliga utvecklingskostnaden.

I en storskalig attack riktades 100 000 frågor mot Gemini i syfte att kopiera modellens resonemang kring uppgifter på andra språk än engelska. Google ser detta som ett allvarligt hot mot affärsmodellen för AI-tjänster och immaterialrätten.

Som svar på dessa aktiviteter har Google stängt ner konton och infrastruktur kopplade till missbruket. Företaget har även infört förstärkta säkerhetsspärrar i Geminis filter för att göra det svårare att använda tjänsten för illegala ändamål.

Källa: Bleeping Computer

Uppgraderingen av Siri kommer att släppas stegvis

Uppgraderingen av Siri kommer att släppas stegvis

AI, teknologi, museum, utställning, framtid, innovation, museiupplevelse, interaktiv, kreativ, modern design, digital konst, högteknologisk, samhälle, vetenskap, intelligens, historisk framtid.

Apple har stött på interna utmaningar i arbetet med att uppgradera Siri, trots det nyligen tecknade avtalet om att använda Googles Gemini som motor i systemet. ”Förseningarna” innebär att lanseringen av de mest efterlängtade funktionerna kan dröja till iOS 27 i höst.

Enligt uppgifter från Bloomberg var planen ursprungligen att inkludera de nya funktionerna i iOS 26.4 under mars månad. Nu ser Apple ut att sprida ut lanseringen över flera versioner. Det innebär att vissa delar kan dyka upp i iOS 26.5 i maj, medan andra dröjer till lanseringen av nästa stora operativsystem i september.

Notera nu att detta är Bloombergs uppgifter. Apple har aldrig sagt eller lovat att hela, nya stora Siri ska rullas ut i samband med iOS 26.4 – däremot att nya Siri släpps under 2026 vilket inte riktigt är samma sak. Nu ser det ut som att nya Siri kan komma i en första version i iOS 26.4 eller iOS 26.5 (och i övriga operativsystem) och sedan kommer det att lanseras nya funktioner i kommande uppdateringar precis som Apple har gjort med andra delar av Apple Intelligence.

Personlig data och röststyrning dröjer

En funktion som ser ut att komma senare är Siris förmåga att använda användarens personliga data på ett djupare plan. Det handlar om möjligheten att be assistenten hitta specifika detaljer i gamla meddelanden, som en delad länk eller en rekommenderad podcast, för att sedan agera på informationen direkt. Även röststyrda kommandon för att utföra specifika åtgärder inuti appar uppges komma senare.

Dagens släpp av iOS 26.3 fokuserade enbart på buggfixar och säkerhet. Tidigare förväntningar pekade på att de första tecknen på Gemini-integrationen skulle synas i betan för nästa version senare denna månad, men användare får nu vänta längre på de stora förändringarna.

Från assistent till chattbott

Avtalet med Google blev klart först i januari efter att Apple utvärderat flera alternativ, inklusive egna modeller och teknik från Anthropic. När de första uppgraderingarna väl landar under året väntas nästa steg tas i iOS 27. Då planerar Apple att förändra Siris grundläggande beteende för att mer likna en modern chattbott.

Ett tillägg

Jag vägrar att skriva under på Mark Gurmans och Bloombergs historieskrivning där det sägs att nya Siri försenas. De uppgifterna har en enda källa, Bloomberg, och mot bakgrund av att Apple har rullat ut övriga uppdateringar stegvis, så är det inte osannolikt att det varit Apples plan hela tiden. Därmed inte sagt att Apple inte kan ligga efter i utvecklingen eller att Apple inte har stött på problem. Det är normalt i stort sett i alla större utvecklingsprojekt.

Naturligtvis så hade det dramaturgiskt varit mer lockande att sätta rubriker av typen ”Nya Siri försenas igen” eller ”Nya förseningar för Apples AI-lösning” och liknande men om det ska bygga på Gurmans uppgifter så gör jag ett annat val. När det kommer fler pålitliga uppgifter om att Apple skjuter på lanseringen av nya Siri så ska jag också sätta den typen av rubriker.

Om Bloomberg

* Den 18 oktober 2018 publicerade Bloomberg en längre text, The Big Hack , där det påstås att Apple, Amazon, Super Micro Computer och ett trettiotal amerikanska företag avlyssnades av den kinesiska underrättelsetjänsten. Inget annat media har lyckats hitta några bevis eller indicier som stöder Bloombergs uppgifter, trots att flera omfattande försök har gjorts bland annat av Washington Post. En av de namngivna källorna  i Bloombergs artikel  förnekar dessutom uppgifterna.

Fram till dags dato så har Bloomberg inte tagit tillbaka sina uppgifter.

Super Micro flyttar tillverkningen – Bloomberg har fortfarande inte dementerat sina uppgifter
Bloomberg håller fortfarande fast vid sin historia om kinesiska hackare
Bloomberg har målat in sig i ett hörn
Bloomberg hade fel och borde medge det
Bloombergs oärliga rapport

Läs mer

Apple skrotar planerna på en digital hälscoach

 

Apple skrotar gamla Siri: Vårens jätteuppdatering bygger på Google Gemini

 

Apple Intelligence kan bli framtidens hjälpsystem

 

 

OpenAI spårar läckor med specialbyggd ChatGPT

OpenAI spårar läckor med specialbyggd ChatGPT

1. AI-forskning, OpenAI-illustration, teknik, innovation, framtid, AI-utveckling.

OpenAI använder en specialversion av ChatGPT för att spåra interna informationsläckor. Enligt en rapport från The Information matar företagets säkerhetsteam in texten från publicerade nyhetsartiklar i systemet när känsliga uppgifter har kommit ut. Denna anpassade version av AI-modellen har tillgång till interna dokument samt de anställdas meddelanden i Slack och e-post.

Systemet analyserar informationen och föreslår möjliga källor till läckan genom att identifiera vilka filer eller kommunikationskanaler som innehåller de publicerade uppgifterna. Den kan därefter visa exakt vilka personer som har haft tillgång till materialet. Det är för närvarande oklart om OpenAI faktiskt har lyckats identifiera någon läcka med hjälp av metoden.

Agenten

Exakt vad som gör just denna version speciell är inte känt, men ingenjörer på OpenAI presenterade nyligen arkitekturen för en intern AI-agent som tros tjäna detta syfte. Agenten är utformad för att låta anställda utföra komplexa dataanalyser med hjälp av naturligt språk och har full tillgång till företagets samlade kunskap lagrad i Google Docs och Slack.

Källa: The Decoder

Läs mer

ChatGPT och AI-botar tar plats i CarPlay

 

Macken testar: Nya Codex, AI-assistenten som faktiskt förstår hela ditt projekt

 

Studie: Medicinska råd från AI-bottar är opålitliga och riskfyllda

 

 

OpenAI spårar läckor med specialbyggd ChatGPT

Jony Ives och OpenAI:s hårdvara försenas till 2027

blank

OpenAIs första hårdvaruprodukt designad av Jony Ive når inte konsumenter förrän nästa år. Uppgifterna kommer från nya domstolshandlingar som blivit offentliga i samband med en varumärkesrättstvist.

Bakgrunden är en stämning från ljudföretaget iyO som riktats mot OpenAI. Konflikten uppstod efter att OpenAI köpt upp io, ett startup grundat av Apples tidigare designchef.

OpenAIs ursprungliga plan var att leverera den ChatGPT baserade enheten före slutet av 2026. Dokumenten visar nu att lanseringen skjuts upp till tidigast slutet av februari 2027. OpenAI har ännu inte tagit fram vare sig förpackningar eller marknadsföringsmaterial för produkten.

I handlingarna framgår också att OpenAI ändrar sin namnstrategi. Företaget kommer inte att använda namnet io eller varianter av detta för sin AI hårdvara.

En skärmfri produkt för fickan

Detaljerna kring den nya produkten är fortfarande få. Enheten beskrivs som en tredje kärnenhet som ska komplettera mobilen och datorn. Tidigare uppgifter i rättstvisten tyder på att det varken rör sig om hörsnäckor eller annan kroppsburna teknik.

Läckor pekar på att prylen är i fickformat, saknar skärm och har förmågan att förstå användarens omgivning och vardag. OpenAIs vd Sam Altman ska ha beskrivit tekniken som det häftigaste världen skådat efter att ha testat en prototyp i sitt hem.

Rykten om Super Bowl reklam

Uppgifterna om förseningen kommer samtidigt som rykten spridits om att OpenAI skulle ha dragit tillbaka en reklamfilm under Super Bowl. Ett videoklipp som cirkulerat på sociala medier visade skådespelaren Alexander Skarsgård i silverfärgade hörlurar. Dessa rykten har nu dementerats och inläggen har tagits bort.

Läs mer

OpenAI köper Jonny Ives bolag

 

Vad är det Jonny Ive och Sam Altman tänker bygga?

 

Varumärkestvist tvingar Jonny Ive och Open AI att berätta mer om vad de bygger

 

 

DuckDuckGo lanserar privat röstchatt i Duck.ai

DuckDuckGo lanserar privat röstchatt i Duck.ai

DuckDuckGo sökmotor, digital marknadsföring, modern sökteknologi, internet sökning, online integritet, säker internetsökning, webbsökfunktioner, användarvänlig sökmotor, personligt anpassad sökning, högkvalitativ sökalgoritm.

DuckDuckGo har lagt till röstsamtal i sin tjänst Duck.ai. Den nya funktionen gör det möjligt att prata direkt med en AI-assistent utan att ljudet spelas in eller används för att träna framtida modeller.

Tjänsten fungerar i DuckDuckGo-webbläsaren och i de flesta andra tredjepartsläsare, medan stöd för Mozilla väntas inom kort. För att värna om integriteten strömmas ljudet krypterat och endast under aktiva sessioner. Enligt företaget får OpenAI, som tillhandahåller röstmodellen, bara tillgång till ljudet i realtid för att kunna generera svar. Ingen data lagras efter att samtalet har avslutats.

Röstfunktionen är valfri och går att stänga av helt i inställningarna för Duck.ai. Om funktionen inaktiveras skickas ingen ljuddata förrän användaren själv väljer att slå på den igen.