av Mikael Winterkvist | mar 13, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Nvidia förbereder en lansering av sin egen öppna plattform för AI-agenter. Projektet går under namnet NemoClaw och syftet är att ta upp kampen med OpenClaw, enligt uppgifter från Wired.
Plattformen har redan presenterats för flera tunga företagspartners som Google, Adobe och Cisco inför Nvidias årliga utvecklarkonferens. Exakt vad dessa samarbeten innebär i praktiken är ännu oklart, men det står klart att Nvidia vill muta in en plats på marknaden för autonoma agenter.
NemoClaw blir en direkt konkurrent till OpenClaw, systemet som slog igenom stort i början av året genom att låta användare köra ständigt aktiva AI-agenter direkt från sina egna datorer. Intresset för tekniken har varit så stort att det bland annat lett till en rusning efter Mac Mini-hårdvara, som tack vare sitt enhetliga minne visat sig vara väl lämpad för uppgiften.
Fokus på säkerhet och företagsnytta
En central del i Nvidias strategi med NemoClaw uppges vara ett starkt fokus på säkerhets- och integritetsverktyg. Detta ses som ett nödvändigt steg för att vinna förtroende hos företag, särskilt då OpenClaw tidigare dragits med säkerhetsproblem när användare gett tjänsten full tillgång till känslig data.
Trots att Nvidia dominerar marknaden för de chip som driver dagens AI-modeller, ska NemoClaw kunna köras även på maskiner utan Nvidias egna grafikprocessorer. Genom att kontrollera plattformen kan bolaget ändå styra partners mot sina egna tjänster och hårdvarulösningar i en tid då konkurrenter börjar utveckla egna alternativ för att minska Nvidias dominans.
Detta drag kommer i en tid av förändring för bolaget, som nyligen tvingades stoppa produktionen av specifika AI-chip för den kinesiska marknaden efter att landet börjat prioritera lokalt tillverkad hårdvara.
Källa: Ars Technica
av Mikael Winterkvist | mar 13, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Det finns en växande frustration kring hur AI-tjänster, och specifikt Google Gemini, agerar efter de senaste uppdateringarna. Användare upplever att tjänsten inte bara gör misstag, utan direkt hittar på funktioner och sprider felaktigheter med ett sken av tvärsäkerhet.
Fenomenet, som ofta kallas hallucinationer, har blivit ett systematiskt problem där tekniken prioriterar att ge ett svar framför att ge ett korrekt svar.
En fasad av falsk expertis
Du får ofta svar som ser professionella ut, med tydliga instruktioner och punktlistor, men som vid en närmare granskning visar sig vara helt verklighetsfrånvända. Det kan handla om instruktioner för inställningar som inte existerar eller referenser till mjukvaruversioner som ännu inte har släppts. Detta skapar en farlig miljö för dig som söker konkreta lösningar, eftersom du tvingas dubbelkolla varje påstående mot externa källor.
Varför lögnerna ökar
Problemet ligger i hur dessa modeller är uppbyggda. De är tränade att förutse nästa ord i en mening baserat på sannolikhet, inte på faktisk sanning. När Gemini pressas att leverera specifika instruktioner eller nyheter tenderar den att kombinera fragment av befintlig data till något som låter trovärdigt men som saknar förankring i verkligheten. Istället för att erkänna sin begränsning genererar mjukvaran en ”sanning” som passar användarens förväntningar.
Konsekvenser för trovärdigheten
När en AI-tjänst ljuger så konsekvent raserar förtroendet för tekniken. För dig som använder verktyget i professionella sammanhang, exempelvis för att skriva tekniknyheter eller guider, innebär detta en stor risk. Upptäcker du inte påhitten sprids desinformationen vidare, vilket i sin tur förgiftar den digitala informationsmiljön. Det blir allt tydligare att de senaste uppdateringarna inte har löst problemet med tillförlitlighet, utan i vissa fall gjort tjänsten mer benägen att dölja sin okunskap bakom avancerade lögner.
Vid mina egna tester av Google Gemini så visade det sig att AI-tjänsten hittade på funktioner när jag bad om förslag på texter för Magasin Macken, alltså textuppslag. Vid min första test för Nora veckor sedan så hittade Gemini på tre helt falska funktioner, funktioner som inte finns i iOS. Även sedan jag påpekade att det var ett grovt brott mot mina uppsatta regler så fortsatte Google Gemini med att hitta på funktioner. Det försåtliga i texterna var att Gemini skrev ut tydliga instruktioner för var funktionerna skulle finnas.
Jag vill ha förslag på funktioner, hur du gör saker ställer in din iPhone, i iOS, med tydliga instruktioner, i iOS 26 – det får på inga villkors vis vara påhittade, falska funktioner. det ska vara äkta, riktiga funktioner.
Google Gemini fortsätter att hitta på funktioner och hävdar dessutom att iOS 26 inte heter iOS 16 utan iOS 19.
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Turerna kring de falska citaten på tekniksajten Ars Technica har tagit en ny vändning. Den reporter som lät ChatGPT hitta på uttalanden i en artikel ser nu ut att ha fått sparken.
Allt började med en konflikt i kodarvärlden där en person använde AI för att smutskasta en volontär som vägrat godkänna AI-genererad kod. När Ars Technica-reportern Benj Edwards skulle bevaka händelsen använde han ChatGPT för att samla in citat, men kontrollerade aldrig om de var äkta. Det visade sig senare att AI-verktyget hade hittat på allting.
När felet uppdagades tog Edwards på sig hela ansvaret. Han förklarade att han var sjuk i influensa och arbetade under hård tidspress. Även redaktionen på Ars Technica gick ut med en offentlig ursäkt för det inträffade.
Ars Technica ber om ursäkt för AI-genererade citat
Tystnad kring uppsägningen
Det visade sig vara tekniska hinder som ledde fram till det journalistiska haveriet. Edwards försökte först hämta citat från en ingenjörs webbplats med verktyget Claude, men blockerades av sajtens kod. Han vände sig då till ChatGPT som istället för att citera källan levererade rena fantasier.
Hade Edwards kopierat citaten manuellt hade han sannolikt haft kvar sitt jobb. Nu tyder allt på att Ars Technica har avslutat samarbetet, även om tidningen vägrar att kommentera saken officiellt. Den 28 februari ändrades Edwards profil på sajten till dåtid och beskriver nu hans roll som något han ”var”. Varken tidningen eller ägaren Condé Nast har svarat på frågor om uppsägningen, och Edwards själv har avböjt att kommentera.
AI ersätter inte källkritik
Händelsen sätter ljuset på faran med att låta AI ersätta grundläggande faktakontroll. Samtidigt speglar det en bredare kris i mediebranschen där ägare pressar på för att integrera ofärdiga språkmodeller i syfte att spara pengar och skära ner på personal.
Källa: Techdirt
Läs mer
AI som hittar på – när uppdateringar gör verktygen dummare istället för smartare
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Flera av USA:s största teknikbolag sluter nu upp bakom Anthropic i deras stämning mot ledande personer inom Trump-administrationen. Sedan i måndags har Google, Amazon, Apple och Microsoft offentligt gett sitt stöd till den rättsliga processen. Syftet är att häva försvarsminister Pete Hegseths beslut att stämpla Anthropic som en ”risk för leveranskedjan”.
I juridiska dokument uttrycker bolagen oro över vad de beskriver som statlig vedergällning. Bakgrunden är att Anthropic vägrat låta sina verktyg användas för massövervakning och autonoma vapen. Microsoft varnar för att regeringens agerande kan få omfattande negativa konsekvenser för hela tekniksektorn.
Enad front mot statlig kontroll
Microsoft samarbetar i stor utsträckning med både regeringen och försvarsdepartementet. Bolaget betonar att AI-verktyg inte bör användas för inhemsk massövervakning. De motsätter sig även att landet försätts i en position där autonoma maskiner självständigt kan starta krig.
Flera intresseorganisationer har lämnat in yttranden till stöd för Anthropic. Bland dessa finns Chamber of Progress som företräder jättar som Nvidia och Amazon. Organisationen betonar att de är ideologiskt mångfaldiga men djupt oroade över hur regeringens agerande påverkar yttrandefriheten. Meta är ett av få stora bolag som inte har valt att stötta processen efter att ha lämnat organisationen förra året.
Anklagelser om politisk bestraffning
Anthropic hävdar i sin stämning att deras rättigheter kränks genom statlig hämnd för offentliga uttalanden. President Donald Trump och försvarsminister Hegseth har tidigare anklagat bolaget för att vara ”woke” eller politiskt motstridiga mot administrationen. I ett gemensamt uttalande beskrivs stämplingen av bolaget som ett ”raseriutbrott” som kan ruinera verksamheter.
Stödet kommer även från oväntat håll. Närmare 40 anställda från OpenAI och Google har lämnat in stödyttranden. Dessutom har ett tjugotal tidigare högt uppsatta militärer uttryckt att regeringens agerande sänder signaler om att investeringar i nationell säkerhet bär en risk för godtycklig bestraffning vid åsiktskillnader.
Hot mot marknadskrafterna
Situationen framstår som komplex då många företagsledare i Silicon Valley tidigare stöttat Trump ekonomiskt. Den plötsliga och hårda åtgärden mot Anthropic tycks dock ha passerat en gräns för branschen. Under en förhandling i San Francisco påstod en advokat från Anthropic att försvarsdepartementet aktivt kontaktat bolagets kunder för att övertala dem att bryta samarbetet. Justitiedepartementets företrädare har inte förnekat detta.
Gary Ellis, tidigare verksam inom amerikansk politik, menar att varningsklockorna ringer när regeringen börjar manipulera marknadens grundläggande mekanismer. Han påpekar att cheferna i branschen förstår allvaret när ett bolag med framstående teknik plötsligt svartlistas.
Bakgrunden till konflikten
Striden rör de säkerhetsspärrar som Anthropic har för sin teknik. Bolaget hävdar att Hegseth krävde att skrivningar som förbjöd användning till massövervakning och autonoma vapen skulle tas bort ur statliga kontrakt. När vd Dario Amodei vägrade backa ledde det till att Trump gick till attack på Truth Social. Han meddelade då att verktyg som Claude ska tas bort från alla statliga myndigheter.
Kort därefter utsågs Anthropic till en risk för leveranskedjan med motiveringen att tekniken inte är tillräckligt säker. Det är första gången ett amerikanskt bolag får den stämpeln. John Coleman från organisationen FIRE förväntar sig fler liknande sammandrabbningar mellan Silicon Valley och försvarsdepartementet framöver.
Källa: BBC
Läs mer
Altman erkänner: Vi styr inte hur militären använder vår AI
OpenAI-chef lämnar efter Pentagon-avtal
ChatGPT är tillbaka i toppen i amerikanska App Store
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

OpenAIs kraftfulla verktyg för videogenerering har hittills legat i en egen app. Detta kan snart ändras. En ny rapport gör gällande att ChatGPT inom kort får verktyg från Sora-plattformen direkt i chattgränssnittet. Uppgifterna kommer från källor med insyn i företagets planer enligt The Information.
OpenAI planerar att fortsätta erbjuda Sora som en fristående app. De avancerade verktygen ska samtidigt integreras i den huvudsakliga chatboten. Draget gör tekniken tillgänglig för miljontals användare.
Gratisanvändare har för närvarande tillgång till ett begränsat antal videogenereringar per dag via Sora. Betalande användare med Pro, Plus eller Business får obegränsat antal bilder och videor. Användare på ChatGPT Plus och Business får dock nöja sig med en upplösning på 480p. Videolängden får där inte överstiga 10 sekunder.
Inget datum
Rapporten nämner inget specifikt datum för lanseringen i ChatGPT. OpenAI har tidigare varit snabba med att rulla ut nya funktioner. Integrationen kan därför ske inom kort.
En uppdatering av ChatGPT den 10 mars introducerade nya interaktiva moduler för studenter. Dessa är utformade för att låta dig arbeta med interaktiva versioner av formler och variabler. Du får möjlighet att ändra indata och manipulera ekvationer för att se hur grafer och resultat påverkas i realtid. Du kan även generera quiz för att testa dina kunskaper i matematik och naturvetenskap.
Källa: The Information
Läs mer
AI-chattbottar missar fejkade videor – till och med sina egna
Så avslöjar du falska AI-videor – digitala verktyg för verifiering
av Mikael Winterkvist | mar 10, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

OpenAI:s avtal med det amerikanska försvarsdepartementet har utlöst kritik från användare och skakat om konkurrensen mellan AI-appar. Reaktionen blev så stark att Anthropic-appen Claude tillfälligt tog förstaplatsen i den amerikanska App Store.
Claude nådde toppen av App Store den 1 mars. Bakgrunden är en konflikt mellan AI-bolaget Anthropic och den amerikanska staten kring ett mångmiljonavtal med försvarsdepartementet.
Anthropic vägrade acceptera två klausuler i avtalet och klassades därefter som en risk i leverantörskedjan. Samma dag som tidsfristen löpte ut valde OpenAI att skriva under avtalet i stället.
Skyddsåtgärder
OpenAI uppgav att bolaget lyckades få in vissa skyddsåtgärder som Anthropic tidigare efterfrågat. Beskedet möttes ändå av kritik från en del användare, som reagerade på kopplingen till militära kontrakt.
Enligt rapporter ökade antalet avinstallationer av ChatGPT kraftigt under några dagar, med en uppgång på omkring 295 procent. Samtidigt steg Claude snabbt i popularitet och tog för första gången förstaplatsen i den amerikanska App Store.
Reaktionen blev dock kortvarig. Kort därefter tog ChatGPT tillbaka topplaceringen i App Store. Claude ligger nu på andra plats, medan Googles Gemini återfinns på tredje plats.
Konkurrensen
Konkurrensen mellan de stora AI-modellerna har samtidigt blivit betydligt hårdare. Under det senaste året har OpenAI:s tidigare tydliga försprång minskat.
En rapport från analysföretaget Apptopia visar att ChatGPT:s andel av dagliga användare i USA sjönk från 69,1 procent i januari 2025 till 45,3 procent i januari 2026. Under samma period ökade Googles Gemini från 14,7 till 25,1 procent.
Alphabet meddelade samtidigt att Gemini har vuxit till omkring 750 miljoner aktiva användare per månad, upp från 650 miljoner i november.
OpenAI uppgav i slutet av förra månaden att ChatGPT nått 900 miljoner veckovisa användare och passerat 50 miljoner betalande abonnenter.
Analysföretaget Sensor Tower har dessutom noterat att Gemini ökade sina månatliga användare med omkring 30 procent mellan augusti och november, medan ChatGPT under samma period växte med ungefär fem procent.
Anthropic har under flera år i första hand riktat in sig på företag och utvecklare. Bolaget har också publicerat flera studier och rapporter om ansvarsfull AI, vilket bidragit till att stärka dess profil inom AI-säkerhet.
Annonser
Efter en uppmärksammad reklamkampanj i samband med Super Bowl, där Anthropic indirekt kritiserade beslutet att införa annonser i ChatGPT, ökade intresset även bland vanliga användare. Claude tog sig då för första gången in på topp tio i den amerikanska App Store den 13 februari.
Tvisten med Pentagon fortsätter samtidigt. Anthropic har stämt den amerikanska staten för att få bort klassningen som risk i leverantörskedjan och har fått stöd av över 30 personer från teknikbranschen som lämnat in ett så kallat amicus-yttrande till bolagets fördel.
Även om ChatGPT nu åter ligger högst i App Store har de senaste dagarnas händelser visat att Claude kan bli ett tydligare alternativ i konkurrensen med både OpenAI och Google.
Frågan är om Anthropic lyckas ta vara på det momentum som uppstått.
Källa: 9 to 5 Mac