av Mikael Winterkvist | mar 14, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

OpenAI lanserade i tisdags en uppsättning interaktiva visuella verktyg i ChatGPT. Användare kan nu manipulera matematiska och vetenskapliga formler i realtid. Denna utbildningssatsning landar mitt i en turbulent period för företaget.
Det nya gränssnittet täcker över 70 centrala koncept, från Pythagoras sats och Ohms lag till ränta-på-ränta-effekten. När en användare ber ChatGPT förklara något av dessa ämnen skapas en dynamisk modul med skjutreglage bredvid textsvaret. Genom att dra i en variabel uppdateras ekvationer, grafer och diagram omedelbart. Funktionen är tillgänglig för alla inloggade användare globalt, inklusive de på gratisplanen.
Höga insatser under krisdrabbat år
Enligt OpenAI använder redan 140 miljoner människor ChatGPT varje vecka för lärande inom matematik och vetenskap. Siffran är svindlande, men lanseringen sker samtidigt som företaget pressas från flera håll. Sedan slutet av februari har OpenAI:
-
Blivit stämda av familjen till ett offer för en masskjutning.
-
Förlorat sin robotikchef efter ett kritiserat Pentagon-avtal som ledde till att avinstallationerna av appen ökade med nästan 300 %.
-
Sett över 30 egna anställda ge juridiskt stöd till konkurrenten Anthropic i en tvist mot amerikanska staten.
-
Skrotat planer på att expandera ett viktigt datacenter i Texas tillsammans med Oracle.
Samtidigt toppar huvudkonkurrenten Claude listorna i App Store. De interaktiva verktygen ses som en stark produkt, men de lanseras i ett läge där företaget kämpar på alla fronter och beräknas göra av med 15 miljarder dollar i likvida medel under året.
Så fungerar de interaktiva modulerna
Funktionen bygger på att förståelsen ökar när elever ser vad som händer när indata ändras. Om du ber om hjälp med Pythagoras sats, $a^2 + b^2 = c^2$, visas en panel med reglage för sidorna $a$ och $b$. En geometrisk visualisering av en rätvinklig triangel omformas dynamiskt medan du justerar värdena. Hypotenusan räknas ut i realtid.
Samma princip gäller för Ohms lag där spänning och resistans kan justeras, eller för den ideala gaslagen där tryck och temperatur påverkar resultatet. OpenAI siktar främst på material för gymnasiet och inledande universitetsstudier. Det inkluderar allt från kinetisk energi och Hooks lag till trigonometriska identiteter och volymberäkningar för cylindrar.
Lärare ser positivt på utvecklingen
Företaget hänvisar till forskning som visar att interaktionsbaserat lärande ger djupare konceptuell förståelse än traditionell undervisning. I tidiga tester uppger föräldrar att de använder modulerna för att lösa problem tillsammans med sina barn.
Anjini Grover, matematiklärare på gymnasienivå, betonar hur starkt funktionen lyfter fram den underliggande logiken. Algebra-läraren Raquel Gibson ser det som ett steg mot att ge elever möjlighet att självständigt utforska abstrakta begrepp. Verktygen bygger vidare på befintliga funktioner som ”studieläge” och provförberedande quiz. OpenAI planerar att expandera satsningen till fler ämnen och studera hur AI påverkar läranderesultat över tid genom initiativet NextGenAI.
av Mikael Winterkvist | mar 13, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Nvidia förbereder en lansering av sin egen öppna plattform för AI-agenter. Projektet går under namnet NemoClaw och syftet är att ta upp kampen med OpenClaw, enligt uppgifter från Wired.
Plattformen har redan presenterats för flera tunga företagspartners som Google, Adobe och Cisco inför Nvidias årliga utvecklarkonferens. Exakt vad dessa samarbeten innebär i praktiken är ännu oklart, men det står klart att Nvidia vill muta in en plats på marknaden för autonoma agenter.
NemoClaw blir en direkt konkurrent till OpenClaw, systemet som slog igenom stort i början av året genom att låta användare köra ständigt aktiva AI-agenter direkt från sina egna datorer. Intresset för tekniken har varit så stort att det bland annat lett till en rusning efter Mac Mini-hårdvara, som tack vare sitt enhetliga minne visat sig vara väl lämpad för uppgiften.
Fokus på säkerhet och företagsnytta
En central del i Nvidias strategi med NemoClaw uppges vara ett starkt fokus på säkerhets- och integritetsverktyg. Detta ses som ett nödvändigt steg för att vinna förtroende hos företag, särskilt då OpenClaw tidigare dragits med säkerhetsproblem när användare gett tjänsten full tillgång till känslig data.
Trots att Nvidia dominerar marknaden för de chip som driver dagens AI-modeller, ska NemoClaw kunna köras även på maskiner utan Nvidias egna grafikprocessorer. Genom att kontrollera plattformen kan bolaget ändå styra partners mot sina egna tjänster och hårdvarulösningar i en tid då konkurrenter börjar utveckla egna alternativ för att minska Nvidias dominans.
Detta drag kommer i en tid av förändring för bolaget, som nyligen tvingades stoppa produktionen av specifika AI-chip för den kinesiska marknaden efter att landet börjat prioritera lokalt tillverkad hårdvara.
Källa: Ars Technica
av Mikael Winterkvist | mar 13, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Det finns en växande frustration kring hur AI-tjänster, och specifikt Google Gemini, agerar efter de senaste uppdateringarna. Användare upplever att tjänsten inte bara gör misstag, utan direkt hittar på funktioner och sprider felaktigheter med ett sken av tvärsäkerhet.
Fenomenet, som ofta kallas hallucinationer, har blivit ett systematiskt problem där tekniken prioriterar att ge ett svar framför att ge ett korrekt svar.
En fasad av falsk expertis
Du får ofta svar som ser professionella ut, med tydliga instruktioner och punktlistor, men som vid en närmare granskning visar sig vara helt verklighetsfrånvända. Det kan handla om instruktioner för inställningar som inte existerar eller referenser till mjukvaruversioner som ännu inte har släppts. Detta skapar en farlig miljö för dig som söker konkreta lösningar, eftersom du tvingas dubbelkolla varje påstående mot externa källor.
Varför lögnerna ökar
Problemet ligger i hur dessa modeller är uppbyggda. De är tränade att förutse nästa ord i en mening baserat på sannolikhet, inte på faktisk sanning. När Gemini pressas att leverera specifika instruktioner eller nyheter tenderar den att kombinera fragment av befintlig data till något som låter trovärdigt men som saknar förankring i verkligheten. Istället för att erkänna sin begränsning genererar mjukvaran en ”sanning” som passar användarens förväntningar.
Konsekvenser för trovärdigheten
När en AI-tjänst ljuger så konsekvent raserar förtroendet för tekniken. För dig som använder verktyget i professionella sammanhang, exempelvis för att skriva tekniknyheter eller guider, innebär detta en stor risk. Upptäcker du inte påhitten sprids desinformationen vidare, vilket i sin tur förgiftar den digitala informationsmiljön. Det blir allt tydligare att de senaste uppdateringarna inte har löst problemet med tillförlitlighet, utan i vissa fall gjort tjänsten mer benägen att dölja sin okunskap bakom avancerade lögner.
Vid mina egna tester av Google Gemini så visade det sig att AI-tjänsten hittade på funktioner när jag bad om förslag på texter för Magasin Macken, alltså textuppslag. Vid min första test för Nora veckor sedan så hittade Gemini på tre helt falska funktioner, funktioner som inte finns i iOS. Även sedan jag påpekade att det var ett grovt brott mot mina uppsatta regler så fortsatte Google Gemini med att hitta på funktioner. Det försåtliga i texterna var att Gemini skrev ut tydliga instruktioner för var funktionerna skulle finnas.
Jag vill ha förslag på funktioner, hur du gör saker ställer in din iPhone, i iOS, med tydliga instruktioner, i iOS 26 – det får på inga villkors vis vara påhittade, falska funktioner. det ska vara äkta, riktiga funktioner.
Google Gemini fortsätter att hitta på funktioner och hävdar dessutom att iOS 26 inte heter iOS 16 utan iOS 19.
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Turerna kring de falska citaten på tekniksajten Ars Technica har tagit en ny vändning. Den reporter som lät ChatGPT hitta på uttalanden i en artikel ser nu ut att ha fått sparken.
Allt började med en konflikt i kodarvärlden där en person använde AI för att smutskasta en volontär som vägrat godkänna AI-genererad kod. När Ars Technica-reportern Benj Edwards skulle bevaka händelsen använde han ChatGPT för att samla in citat, men kontrollerade aldrig om de var äkta. Det visade sig senare att AI-verktyget hade hittat på allting.
När felet uppdagades tog Edwards på sig hela ansvaret. Han förklarade att han var sjuk i influensa och arbetade under hård tidspress. Även redaktionen på Ars Technica gick ut med en offentlig ursäkt för det inträffade.
Ars Technica ber om ursäkt för AI-genererade citat
Tystnad kring uppsägningen
Det visade sig vara tekniska hinder som ledde fram till det journalistiska haveriet. Edwards försökte först hämta citat från en ingenjörs webbplats med verktyget Claude, men blockerades av sajtens kod. Han vände sig då till ChatGPT som istället för att citera källan levererade rena fantasier.
Hade Edwards kopierat citaten manuellt hade han sannolikt haft kvar sitt jobb. Nu tyder allt på att Ars Technica har avslutat samarbetet, även om tidningen vägrar att kommentera saken officiellt. Den 28 februari ändrades Edwards profil på sajten till dåtid och beskriver nu hans roll som något han ”var”. Varken tidningen eller ägaren Condé Nast har svarat på frågor om uppsägningen, och Edwards själv har avböjt att kommentera.
AI ersätter inte källkritik
Händelsen sätter ljuset på faran med att låta AI ersätta grundläggande faktakontroll. Samtidigt speglar det en bredare kris i mediebranschen där ägare pressar på för att integrera ofärdiga språkmodeller i syfte att spara pengar och skära ner på personal.
Källa: Techdirt
Läs mer
AI som hittar på – när uppdateringar gör verktygen dummare istället för smartare
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Flera av USA:s största teknikbolag sluter nu upp bakom Anthropic i deras stämning mot ledande personer inom Trump-administrationen. Sedan i måndags har Google, Amazon, Apple och Microsoft offentligt gett sitt stöd till den rättsliga processen. Syftet är att häva försvarsminister Pete Hegseths beslut att stämpla Anthropic som en ”risk för leveranskedjan”.
I juridiska dokument uttrycker bolagen oro över vad de beskriver som statlig vedergällning. Bakgrunden är att Anthropic vägrat låta sina verktyg användas för massövervakning och autonoma vapen. Microsoft varnar för att regeringens agerande kan få omfattande negativa konsekvenser för hela tekniksektorn.
Enad front mot statlig kontroll
Microsoft samarbetar i stor utsträckning med både regeringen och försvarsdepartementet. Bolaget betonar att AI-verktyg inte bör användas för inhemsk massövervakning. De motsätter sig även att landet försätts i en position där autonoma maskiner självständigt kan starta krig.
Flera intresseorganisationer har lämnat in yttranden till stöd för Anthropic. Bland dessa finns Chamber of Progress som företräder jättar som Nvidia och Amazon. Organisationen betonar att de är ideologiskt mångfaldiga men djupt oroade över hur regeringens agerande påverkar yttrandefriheten. Meta är ett av få stora bolag som inte har valt att stötta processen efter att ha lämnat organisationen förra året.
Anklagelser om politisk bestraffning
Anthropic hävdar i sin stämning att deras rättigheter kränks genom statlig hämnd för offentliga uttalanden. President Donald Trump och försvarsminister Hegseth har tidigare anklagat bolaget för att vara ”woke” eller politiskt motstridiga mot administrationen. I ett gemensamt uttalande beskrivs stämplingen av bolaget som ett ”raseriutbrott” som kan ruinera verksamheter.
Stödet kommer även från oväntat håll. Närmare 40 anställda från OpenAI och Google har lämnat in stödyttranden. Dessutom har ett tjugotal tidigare högt uppsatta militärer uttryckt att regeringens agerande sänder signaler om att investeringar i nationell säkerhet bär en risk för godtycklig bestraffning vid åsiktskillnader.
Hot mot marknadskrafterna
Situationen framstår som komplex då många företagsledare i Silicon Valley tidigare stöttat Trump ekonomiskt. Den plötsliga och hårda åtgärden mot Anthropic tycks dock ha passerat en gräns för branschen. Under en förhandling i San Francisco påstod en advokat från Anthropic att försvarsdepartementet aktivt kontaktat bolagets kunder för att övertala dem att bryta samarbetet. Justitiedepartementets företrädare har inte förnekat detta.
Gary Ellis, tidigare verksam inom amerikansk politik, menar att varningsklockorna ringer när regeringen börjar manipulera marknadens grundläggande mekanismer. Han påpekar att cheferna i branschen förstår allvaret när ett bolag med framstående teknik plötsligt svartlistas.
Bakgrunden till konflikten
Striden rör de säkerhetsspärrar som Anthropic har för sin teknik. Bolaget hävdar att Hegseth krävde att skrivningar som förbjöd användning till massövervakning och autonoma vapen skulle tas bort ur statliga kontrakt. När vd Dario Amodei vägrade backa ledde det till att Trump gick till attack på Truth Social. Han meddelade då att verktyg som Claude ska tas bort från alla statliga myndigheter.
Kort därefter utsågs Anthropic till en risk för leveranskedjan med motiveringen att tekniken inte är tillräckligt säker. Det är första gången ett amerikanskt bolag får den stämpeln. John Coleman från organisationen FIRE förväntar sig fler liknande sammandrabbningar mellan Silicon Valley och försvarsdepartementet framöver.
Källa: BBC
Läs mer
Altman erkänner: Vi styr inte hur militären använder vår AI
OpenAI-chef lämnar efter Pentagon-avtal
ChatGPT är tillbaka i toppen i amerikanska App Store
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

OpenAIs kraftfulla verktyg för videogenerering har hittills legat i en egen app. Detta kan snart ändras. En ny rapport gör gällande att ChatGPT inom kort får verktyg från Sora-plattformen direkt i chattgränssnittet. Uppgifterna kommer från källor med insyn i företagets planer enligt The Information.
OpenAI planerar att fortsätta erbjuda Sora som en fristående app. De avancerade verktygen ska samtidigt integreras i den huvudsakliga chatboten. Draget gör tekniken tillgänglig för miljontals användare.
Gratisanvändare har för närvarande tillgång till ett begränsat antal videogenereringar per dag via Sora. Betalande användare med Pro, Plus eller Business får obegränsat antal bilder och videor. Användare på ChatGPT Plus och Business får dock nöja sig med en upplösning på 480p. Videolängden får där inte överstiga 10 sekunder.
Inget datum
Rapporten nämner inget specifikt datum för lanseringen i ChatGPT. OpenAI har tidigare varit snabba med att rulla ut nya funktioner. Integrationen kan därför ske inom kort.
En uppdatering av ChatGPT den 10 mars introducerade nya interaktiva moduler för studenter. Dessa är utformade för att låta dig arbeta med interaktiva versioner av formler och variabler. Du får möjlighet att ändra indata och manipulera ekvationer för att se hur grafer och resultat påverkas i realtid. Du kan även generera quiz för att testa dina kunskaper i matematik och naturvetenskap.
Källa: The Information
Läs mer
AI-chattbottar missar fejkade videor – till och med sina egna
Så avslöjar du falska AI-videor – digitala verktyg för verifiering