av Mikael Winterkvist | mar 16, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

AI är ett hot mot de ungas chanser att få ett jobb – inte de äldre, erfarna och de som redan har ett arbete. Hösten 2025 kom en stor amerikansk undersökning som tydligt pekade i den riktningen och nu kommer en svensk undersökning som understryker att läget är detsamma på den svenska arbetsmarknaden.
Nu bekräftas innehållet i Stanfordekonomen Erik Brynjolfsson rapport som kom hösten 2025 – det är de unga som hotas av AI.
Svensk studie
En ny studie (Lodefalk, Löthman, Koch och Engberg, 2026) visar att sysselsättningen för personer i åldern 22–25 år sjönk med upp till 5,5 procent i början av 2025. Nedgången syns i yrken som påverkas mycket av generativ AI. Siffrorna baseras på jämförelser med yrken som har lägre AI-exponering hos samma arbetsgivare.
Äldre åldersgrupper ökar i sysselsättning under samma period. Störst är ökningen bland personer över 50 år, där sysselsättningen steg med drygt 1 procent. Rapporten pekar på att generativ AI förändrar efterfrågan på arbetskraft olika beroende på ålder och erfarenhet.
Enkelt uttryckt så påverkar AI i första hand vem som får jobb.
Kreativ process
Kodande är en kreativ process men det är också en process som till stora delar, i vart fall inledningsvis av ett projekt innebär ett mindre kreativ skapande av bärande delar av ett program. Alla program behöver en meny, en start, dialogrutor och så vidare. Allt det kan beskriva som ett grundkodande; du måste skapa en grund, en ram för att komma vidare.
Traditionellt så har detta kodande landat i knät på nya, unga nyutexaminerade utvecklare. Är du nyanställd så är det här du startar. Ditt bidrag till den nya lösningen, ett program eller en app är att skapa ramen och sedan tar mer erfarna programmerare över resten. Enkelt uttryckt så är det på ett ungefär så det ser ut i branschen.
Inom spelindustrin talas det ibland om ”kodslavar”, unga, nya programmerare som får skriva koden som håller ihop spelet.
Den här delen är viktig därför att det är genom att skriva grunderna som du skaffar dig erfarenhet.
Magasin Macken, augusti 2025
Från kodslavar till kreatörer: så förändrar AI utvecklaryrket
Du klarar dig med AI
Det som också försvinner är de enkla uppgifterna, de enkla apparna och programmen helt enkelt därför att det är där AI just nu har sin styrka. Ska du bygga en. enklare funktion så behöver du ingen programmerare – du klarar dig med AI.
Detta gäller inte bara programmerare utan det finns en rad andra yrken som bygger på att du som ung, som ny, startar med grundläggande uppgifter – som nu i allt högre grad utförs med AI.
Administrativa yrken
Administratörer, sekreterare och handläggare arbetar ofta med dokument, scheman, formulär och informationshantering. AI-system kan automatisera delar av detta arbete, till exempel sortering av dokument, sammanställning av rapporter och hantering av kundförfrågningar.
Kundtjänst och support
Chattbottar och AI-baserade supportsystem kan redan hantera stora delar av enklare kundfrågor. Det innebär att många rutinärenden inte längre behöver mänsklig handläggning.
Innehållsproduktion
Yrken som skribenter, översättare, copywriters och vissa journalister påverkas eftersom AI kan producera texter, sammanfattningar och översättningar snabbt. Människor behövs fortfarande för analys, granskning och redaktionell kvalitet.
Programmering och mjukvaruutveckling
AI-verktyg kan skriva kod, hitta buggar och föreslå lösningar. Det innebär att delar av utvecklingsarbetet automatiseras, särskilt enklare kodning och repetitiva uppgifter.
Grafisk design och enklare bildproduktion
AI kan skapa illustrationer, layoutförslag och bildmaterial på kort tid. Enklare designjobb påverkas därför mer än avancerad formgivning där strategi och koncept spelar större roll.
Juridik och dokumentgranskning
AI kan analysera stora mängder juridiska dokument och hitta mönster eller relevanta avsnitt. Det påverkar särskilt arbete som tidigare gjordes av juniora jurister och paralegals.
Finansanalys och revision
AI används för att analysera stora datamängder, upptäcka avvikelser och göra prognoser. Det påverkar arbetsuppgifter inom bokföring, revision och finansiell analys.
Transport och logistik
På längre sikt kan autonoma system påverka yrken inom transportsektorn, exempelvis lastbilsförare och vissa logistikroller.
Yrken som påverkas mindre
Arbeten som kräver praktiskt arbete, social kompetens eller mänsklig omsorg förändras långsammare. Exempel är vårdyrken, hantverksyrken, pedagogiska yrken och många serviceyrken.
av Mikael Winterkvist | mar 14, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

OpenAI lanserade i tisdags en uppsättning interaktiva visuella verktyg i ChatGPT. Användare kan nu manipulera matematiska och vetenskapliga formler i realtid. Denna utbildningssatsning landar mitt i en turbulent period för företaget.
Det nya gränssnittet täcker över 70 centrala koncept, från Pythagoras sats och Ohms lag till ränta-på-ränta-effekten. När en användare ber ChatGPT förklara något av dessa ämnen skapas en dynamisk modul med skjutreglage bredvid textsvaret. Genom att dra i en variabel uppdateras ekvationer, grafer och diagram omedelbart. Funktionen är tillgänglig för alla inloggade användare globalt, inklusive de på gratisplanen.
Höga insatser under krisdrabbat år
Enligt OpenAI använder redan 140 miljoner människor ChatGPT varje vecka för lärande inom matematik och vetenskap. Siffran är svindlande, men lanseringen sker samtidigt som företaget pressas från flera håll. Sedan slutet av februari har OpenAI:
-
Blivit stämda av familjen till ett offer för en masskjutning.
-
Förlorat sin robotikchef efter ett kritiserat Pentagon-avtal som ledde till att avinstallationerna av appen ökade med nästan 300 %.
-
Sett över 30 egna anställda ge juridiskt stöd till konkurrenten Anthropic i en tvist mot amerikanska staten.
-
Skrotat planer på att expandera ett viktigt datacenter i Texas tillsammans med Oracle.
Samtidigt toppar huvudkonkurrenten Claude listorna i App Store. De interaktiva verktygen ses som en stark produkt, men de lanseras i ett läge där företaget kämpar på alla fronter och beräknas göra av med 15 miljarder dollar i likvida medel under året.
Så fungerar de interaktiva modulerna
Funktionen bygger på att förståelsen ökar när elever ser vad som händer när indata ändras. Om du ber om hjälp med Pythagoras sats, $a^2 + b^2 = c^2$, visas en panel med reglage för sidorna $a$ och $b$. En geometrisk visualisering av en rätvinklig triangel omformas dynamiskt medan du justerar värdena. Hypotenusan räknas ut i realtid.
Samma princip gäller för Ohms lag där spänning och resistans kan justeras, eller för den ideala gaslagen där tryck och temperatur påverkar resultatet. OpenAI siktar främst på material för gymnasiet och inledande universitetsstudier. Det inkluderar allt från kinetisk energi och Hooks lag till trigonometriska identiteter och volymberäkningar för cylindrar.
Lärare ser positivt på utvecklingen
Företaget hänvisar till forskning som visar att interaktionsbaserat lärande ger djupare konceptuell förståelse än traditionell undervisning. I tidiga tester uppger föräldrar att de använder modulerna för att lösa problem tillsammans med sina barn.
Anjini Grover, matematiklärare på gymnasienivå, betonar hur starkt funktionen lyfter fram den underliggande logiken. Algebra-läraren Raquel Gibson ser det som ett steg mot att ge elever möjlighet att självständigt utforska abstrakta begrepp. Verktygen bygger vidare på befintliga funktioner som ”studieläge” och provförberedande quiz. OpenAI planerar att expandera satsningen till fler ämnen och studera hur AI påverkar läranderesultat över tid genom initiativet NextGenAI.
av Mikael Winterkvist | mar 13, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Nvidia förbereder en lansering av sin egen öppna plattform för AI-agenter. Projektet går under namnet NemoClaw och syftet är att ta upp kampen med OpenClaw, enligt uppgifter från Wired.
Plattformen har redan presenterats för flera tunga företagspartners som Google, Adobe och Cisco inför Nvidias årliga utvecklarkonferens. Exakt vad dessa samarbeten innebär i praktiken är ännu oklart, men det står klart att Nvidia vill muta in en plats på marknaden för autonoma agenter.
NemoClaw blir en direkt konkurrent till OpenClaw, systemet som slog igenom stort i början av året genom att låta användare köra ständigt aktiva AI-agenter direkt från sina egna datorer. Intresset för tekniken har varit så stort att det bland annat lett till en rusning efter Mac Mini-hårdvara, som tack vare sitt enhetliga minne visat sig vara väl lämpad för uppgiften.
Fokus på säkerhet och företagsnytta
En central del i Nvidias strategi med NemoClaw uppges vara ett starkt fokus på säkerhets- och integritetsverktyg. Detta ses som ett nödvändigt steg för att vinna förtroende hos företag, särskilt då OpenClaw tidigare dragits med säkerhetsproblem när användare gett tjänsten full tillgång till känslig data.
Trots att Nvidia dominerar marknaden för de chip som driver dagens AI-modeller, ska NemoClaw kunna köras även på maskiner utan Nvidias egna grafikprocessorer. Genom att kontrollera plattformen kan bolaget ändå styra partners mot sina egna tjänster och hårdvarulösningar i en tid då konkurrenter börjar utveckla egna alternativ för att minska Nvidias dominans.
Detta drag kommer i en tid av förändring för bolaget, som nyligen tvingades stoppa produktionen av specifika AI-chip för den kinesiska marknaden efter att landet börjat prioritera lokalt tillverkad hårdvara.
Källa: Ars Technica
av Mikael Winterkvist | mar 13, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Det finns en växande frustration kring hur AI-tjänster, och specifikt Google Gemini, agerar efter de senaste uppdateringarna. Användare upplever att tjänsten inte bara gör misstag, utan direkt hittar på funktioner och sprider felaktigheter med ett sken av tvärsäkerhet.
Fenomenet, som ofta kallas hallucinationer, har blivit ett systematiskt problem där tekniken prioriterar att ge ett svar framför att ge ett korrekt svar.
En fasad av falsk expertis
Du får ofta svar som ser professionella ut, med tydliga instruktioner och punktlistor, men som vid en närmare granskning visar sig vara helt verklighetsfrånvända. Det kan handla om instruktioner för inställningar som inte existerar eller referenser till mjukvaruversioner som ännu inte har släppts. Detta skapar en farlig miljö för dig som söker konkreta lösningar, eftersom du tvingas dubbelkolla varje påstående mot externa källor.
Varför lögnerna ökar
Problemet ligger i hur dessa modeller är uppbyggda. De är tränade att förutse nästa ord i en mening baserat på sannolikhet, inte på faktisk sanning. När Gemini pressas att leverera specifika instruktioner eller nyheter tenderar den att kombinera fragment av befintlig data till något som låter trovärdigt men som saknar förankring i verkligheten. Istället för att erkänna sin begränsning genererar mjukvaran en ”sanning” som passar användarens förväntningar.
Konsekvenser för trovärdigheten
När en AI-tjänst ljuger så konsekvent raserar förtroendet för tekniken. För dig som använder verktyget i professionella sammanhang, exempelvis för att skriva tekniknyheter eller guider, innebär detta en stor risk. Upptäcker du inte påhitten sprids desinformationen vidare, vilket i sin tur förgiftar den digitala informationsmiljön. Det blir allt tydligare att de senaste uppdateringarna inte har löst problemet med tillförlitlighet, utan i vissa fall gjort tjänsten mer benägen att dölja sin okunskap bakom avancerade lögner.
Vid mina egna tester av Google Gemini så visade det sig att AI-tjänsten hittade på funktioner när jag bad om förslag på texter för Magasin Macken, alltså textuppslag. Vid min första test för Nora veckor sedan så hittade Gemini på tre helt falska funktioner, funktioner som inte finns i iOS. Även sedan jag påpekade att det var ett grovt brott mot mina uppsatta regler så fortsatte Google Gemini med att hitta på funktioner. Det försåtliga i texterna var att Gemini skrev ut tydliga instruktioner för var funktionerna skulle finnas.
Jag vill ha förslag på funktioner, hur du gör saker ställer in din iPhone, i iOS, med tydliga instruktioner, i iOS 26 – det får på inga villkors vis vara påhittade, falska funktioner. det ska vara äkta, riktiga funktioner.
Google Gemini fortsätter att hitta på funktioner och hävdar dessutom att iOS 26 inte heter iOS 16 utan iOS 19.
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Turerna kring de falska citaten på tekniksajten Ars Technica har tagit en ny vändning. Den reporter som lät ChatGPT hitta på uttalanden i en artikel ser nu ut att ha fått sparken.
Allt började med en konflikt i kodarvärlden där en person använde AI för att smutskasta en volontär som vägrat godkänna AI-genererad kod. När Ars Technica-reportern Benj Edwards skulle bevaka händelsen använde han ChatGPT för att samla in citat, men kontrollerade aldrig om de var äkta. Det visade sig senare att AI-verktyget hade hittat på allting.
När felet uppdagades tog Edwards på sig hela ansvaret. Han förklarade att han var sjuk i influensa och arbetade under hård tidspress. Även redaktionen på Ars Technica gick ut med en offentlig ursäkt för det inträffade.
Ars Technica ber om ursäkt för AI-genererade citat
Tystnad kring uppsägningen
Det visade sig vara tekniska hinder som ledde fram till det journalistiska haveriet. Edwards försökte först hämta citat från en ingenjörs webbplats med verktyget Claude, men blockerades av sajtens kod. Han vände sig då till ChatGPT som istället för att citera källan levererade rena fantasier.
Hade Edwards kopierat citaten manuellt hade han sannolikt haft kvar sitt jobb. Nu tyder allt på att Ars Technica har avslutat samarbetet, även om tidningen vägrar att kommentera saken officiellt. Den 28 februari ändrades Edwards profil på sajten till dåtid och beskriver nu hans roll som något han ”var”. Varken tidningen eller ägaren Condé Nast har svarat på frågor om uppsägningen, och Edwards själv har avböjt att kommentera.
AI ersätter inte källkritik
Händelsen sätter ljuset på faran med att låta AI ersätta grundläggande faktakontroll. Samtidigt speglar det en bredare kris i mediebranschen där ägare pressar på för att integrera ofärdiga språkmodeller i syfte att spara pengar och skära ner på personal.
Källa: Techdirt
Läs mer
AI som hittar på – när uppdateringar gör verktygen dummare istället för smartare
av Mikael Winterkvist | mar 12, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Flera av USA:s största teknikbolag sluter nu upp bakom Anthropic i deras stämning mot ledande personer inom Trump-administrationen. Sedan i måndags har Google, Amazon, Apple och Microsoft offentligt gett sitt stöd till den rättsliga processen. Syftet är att häva försvarsminister Pete Hegseths beslut att stämpla Anthropic som en ”risk för leveranskedjan”.
I juridiska dokument uttrycker bolagen oro över vad de beskriver som statlig vedergällning. Bakgrunden är att Anthropic vägrat låta sina verktyg användas för massövervakning och autonoma vapen. Microsoft varnar för att regeringens agerande kan få omfattande negativa konsekvenser för hela tekniksektorn.
Enad front mot statlig kontroll
Microsoft samarbetar i stor utsträckning med både regeringen och försvarsdepartementet. Bolaget betonar att AI-verktyg inte bör användas för inhemsk massövervakning. De motsätter sig även att landet försätts i en position där autonoma maskiner självständigt kan starta krig.
Flera intresseorganisationer har lämnat in yttranden till stöd för Anthropic. Bland dessa finns Chamber of Progress som företräder jättar som Nvidia och Amazon. Organisationen betonar att de är ideologiskt mångfaldiga men djupt oroade över hur regeringens agerande påverkar yttrandefriheten. Meta är ett av få stora bolag som inte har valt att stötta processen efter att ha lämnat organisationen förra året.
Anklagelser om politisk bestraffning
Anthropic hävdar i sin stämning att deras rättigheter kränks genom statlig hämnd för offentliga uttalanden. President Donald Trump och försvarsminister Hegseth har tidigare anklagat bolaget för att vara ”woke” eller politiskt motstridiga mot administrationen. I ett gemensamt uttalande beskrivs stämplingen av bolaget som ett ”raseriutbrott” som kan ruinera verksamheter.
Stödet kommer även från oväntat håll. Närmare 40 anställda från OpenAI och Google har lämnat in stödyttranden. Dessutom har ett tjugotal tidigare högt uppsatta militärer uttryckt att regeringens agerande sänder signaler om att investeringar i nationell säkerhet bär en risk för godtycklig bestraffning vid åsiktskillnader.
Hot mot marknadskrafterna
Situationen framstår som komplex då många företagsledare i Silicon Valley tidigare stöttat Trump ekonomiskt. Den plötsliga och hårda åtgärden mot Anthropic tycks dock ha passerat en gräns för branschen. Under en förhandling i San Francisco påstod en advokat från Anthropic att försvarsdepartementet aktivt kontaktat bolagets kunder för att övertala dem att bryta samarbetet. Justitiedepartementets företrädare har inte förnekat detta.
Gary Ellis, tidigare verksam inom amerikansk politik, menar att varningsklockorna ringer när regeringen börjar manipulera marknadens grundläggande mekanismer. Han påpekar att cheferna i branschen förstår allvaret när ett bolag med framstående teknik plötsligt svartlistas.
Bakgrunden till konflikten
Striden rör de säkerhetsspärrar som Anthropic har för sin teknik. Bolaget hävdar att Hegseth krävde att skrivningar som förbjöd användning till massövervakning och autonoma vapen skulle tas bort ur statliga kontrakt. När vd Dario Amodei vägrade backa ledde det till att Trump gick till attack på Truth Social. Han meddelade då att verktyg som Claude ska tas bort från alla statliga myndigheter.
Kort därefter utsågs Anthropic till en risk för leveranskedjan med motiveringen att tekniken inte är tillräckligt säker. Det är första gången ett amerikanskt bolag får den stämpeln. John Coleman från organisationen FIRE förväntar sig fler liknande sammandrabbningar mellan Silicon Valley och försvarsdepartementet framöver.
Källa: BBC
Läs mer
Altman erkänner: Vi styr inte hur militären använder vår AI
OpenAI-chef lämnar efter Pentagon-avtal
ChatGPT är tillbaka i toppen i amerikanska App Store