av Mikael Winterkvist | aug 26, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

En ny forskningsstudie, där Apple-forskare varit medförfattare, visar att stora språkmodeller kan bli bättre på att följa instruktioner med hjälp av en enkel metod: checklistor.
När en språkmodell har tränats färdigt brukar den förfinas ytterligare genom en process som kallas RLHF, Reinforcement Learning from Human Feedback. Då får modellen återkoppling av människor som markerar om ett svar är bra eller dåligt. Med tiden lär sig modellen vilka svar som fungerar bäst, men det finns risker – en modell kan till exempel lära sig att ge ytligt korrekta svar som lurar människor, istället för att verkligen lösa uppgiften.
Checklista
I studien med titeln Checklists Are Better Than Reward Models For Aligning Language Models föreslår Apple en ny variant: Reinforcement Learning from Checklist Feedback (RLCF). Här granskas varje svar mot en checklista med tydliga krav, där resultatet bedöms på en skala från 0 till 100.
Forskarna testade metoden på flera välkända benchmark-tester och fick konsekvent bättre resultat än med andra metoder. Bland annat gav RLCF en ökning med fyra poäng på FollowBench, sex poäng på InFoBench och tre poäng på Arena-Hard.
Checklistorna genereras automatiskt av en större språkmodell, som skapar ja/nej-krav utifrån användarens instruktioner. Dessa krav används sedan för att väga och poängsätta olika svar, vilket i sin tur blir inlärningssignalen för den mindre modellen som tränas.
Förbättringar
Resultatet blev förbättringar på upp till 8,2 procent i ett av testerna. Forskarna betonar dock att metoden är inriktad på komplexa instruktioner, inte säkerhet. Den kräver också en kraftfullare modell som domare, vilket kan ses som en begränsning.
Trots detta visar studien en enkel och lovande väg för att göra språkmodeller mer tillförlitliga i det som kanske är deras viktigaste uppgift: att förstå och följa mänskliga instruktioner. Det blir särskilt viktigt i takt med att AI-assistenter får fler agentlika funktioner och därmed större ansvar i användarnas vardag.
Källa:
Cornell University
av Mikael Winterkvist | aug 25, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads
Flera välkända nyhetsorganisationer har under sommaren tvingats radera artiklar skrivna under namnet Margaux Blanchard, en påstådd frilansjournalist som nu visat sig inte existera.
Bakom de publicerade texterna låg i stället AI-genererat material, något som skakat förtroendet för redaktionernas faktagranskning.
Press Gazette rapporterade i torsdags att minst sex publikationer, däribland Wired och Business Insider, tagit bort artiklar de senaste månaderna. Wired raderade i maj en text om ett Minecraft-bröllop och konstaterade i en redaktörskommentar att artikeln inte levde upp till tidningens standard. Business Insider plockade bort två personliga essäer efter att uppgifterna om författaren ifrågasatts.
Faktakontroll
I båda fallen gick det inte att bekräfta de personer som citerades. Wired noterade i efterhand att berättelsen passerat utan ordentlig faktakontroll och utan slutredigering av en senior redaktör. I en självkritisk artikel skrev tidningen: ”Vi gjorde misstag här. Vi agerade snabbt när vi upptäckte bluffen och har vidtagit åtgärder för att det inte ska hända igen.”
Bakom avslöjandet stod Jacob Furedi, chefredaktör för det nya magasinet Dispatch. Han uppmärksammade Press Gazette på misstänkt fabricerade uppgifter i en pitch om en påstådd gruvstad i Colorado, som enligt Blanchard skulle vara ett hemligt träningscenter för rättsmedicinare. När Furedi pressade på för underlag uteblev svaren.
Samtidigt har andra fall under året belyst riskerna med AI i journalistiken. Chicago Sun-Times råkade i maj publicera en AI-genererad läslista via en syndikerad bilaga, och i USA har även jurister fått disciplinära påföljder efter att ha använt falska rättsfall från språkmodeller i inlagor.
Utmaning
Händelserna pekar på en växande utmaning för redaktioner och andra yrkesgrupper: hur lätt AI kan producera trovärdiga men påhittade berättelser och hur snabbt de kan spridas. Diskussionen om behovet av starkare verifieringsrutiner har därmed fått ny kraft i den internationella medievärlden.
av Mikael Winterkvist | aug 23, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Elon Musk, har enligt domstolshandlingar försökt ta kontroll över OpenAI genom att söka stöd hos Mark Zuckerberg – samma person han förra året utmanade till en burmatch.
Musk ledde i februari en grupp investerare som lade ett oväntat bud på 97,4 miljarder dollar för att köpa den ideella organisation som kontrollerar ChatGPT-utvecklaren. Syftet sades vara att återföra fokus till öppen AI med öppen källkod, i linje med den ursprungliga visionen.
OpenAI:s vd Sam Altman avfärdade snabbt försöket och svarade med ett skämtsamt motdrag: att han kunde tänka sig köpa Twitter för 9,74 miljarder dollar.
Inlaga
I en inlaga till domstol uppgav OpenAI att Musk och hans företag xAI diskuterade möjliga finansieringslösningar med Zuckerberg, men att varken han eller Meta skrev under några avtal om att gå med i satsningen. Uppgifterna framkommer som en del av den pågående rättsprocess där Musk stämt OpenAI över företagets tidigare planer på att omvandlas till ett vinstdrivande bolag. Planerna skrotades i maj, och organisationen är i dag en public benefit corporation där den ideella delen fortfarande har kontrollen.
Samtidigt har Meta lagt stora resurser på att bygga egna AI-system. Företaget har anställt experter för mångmiljonbelopp men har nyligen pausat nyrekryteringen. Dessutom splittrades den nya superintelligensgruppen bara två månader efter att den skapats.
Tvinga
OpenAI har nu begärt att domstolen ska tvinga Meta att lämna ut dokument om kontakterna med Musk. Enligt bolaget bör dessa handlingar i första hand inhämtas från Musk själv, och material som rör Meta anses inte ha bäring på målet.
Musk är känd för sina offentliga gräl och brutna vänskaper, ofta lika snabbt som de uppstått. Relationen till Zuckerberg har inte varit lika laddad som till exempel den med Donald Trump, men när de båda började tala om en burmatch 2023 såg det länge ut som att den skulle bli av. Likt tidigare uppmärksammade fajter, bland annat den med Vladimir Putin, stannade det vid ord.
Källa:
Techspot
av Mikael Winterkvist | aug 23, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Den snabba utvecklingen av chattbotar, stora språkmodeller och andra AI-teknologier håller på att förändra hela cybersäkerhetsfältet. Samtidigt som hackare redan utnyttjar tekniken till sin fördel tvingas försvarssidan snabbt anpassa sig för att hålla jämna steg och förhindra eskalerande skador.
Hotanalytiker konstaterar att både cyberkriminella och statsunderstödda grupper numera regelbundet använder AI-drivna verktyg för attacker. På andra sidan använder säkerhetsteamen samma teknologi för att identifiera sårbarheter och blockera angrepp innan de får genomslag.
Ukrainska myndigheter
En rapport från ukrainska myndigheter och säkerhetsforskare bekräftar att en AI-rustningskapplöpning pågår. I juli upptäcktes Lamehug, den första publikt dokumenterade AI-drivna skadeprogramvaran, utvecklad av den ryska hackergruppen APT28. Angreppet använde en språkmodell via Hugging Face API för att omvandla mänskliga instruktioner till komplexa attacker på infekterade datorer.
Heather Adkins, Googles vice vd för säkerhetsingenjörskonst, uppger att stora språkmodeller redan hjälper bolaget att hitta säkerhetsluckor i spridda mjukvaruprodukter. Googles egen modell Gemini har hittills identifierat minst 20 allvarliga buggar, och resultaten har delats med berörda leverantörer. Enligt Adkins är detta bara början på en längre utveckling.
Användbara
AI har ännu inte förändrat cybersäkerheten i grunden, men språkmodeller visar sig användbara för att automatisera tidskrävande arbetsuppgifter som säkerhetsanalytiker redan utför. De kan påskynda processen för att upptäcka sårbarheter och därmed effektivisera försvarsarbetet, även om de inte ersätter mänsklig expertis.
Samtidigt varnar cybersäkerhetsföretaget CrowdStrike för att hackare och utländska underrättelsetjänster redan använder AI i allt större omfattning. Företaget ser växande tecken på att kinesiska, ryska och iranska aktörer använder språkmodeller och chattbotar i sina attacker.
Trots att teknikjättar och startups satsat hundratals miljarder på AI har de ännu inte levererat breda kommersiella lösningar. Hackare ligger däremot steget före genom att använda tekniken för att automatisera avancerade angrepp och snabbt dra ekonomisk nytta av utvecklingen.
Risker
Utvecklingen innebär risker men också möjligheter. Alexei Bulazel, högsta cybersäkerhetschef vid USA:s nationella säkerhetsråd, bedömer att AI på sikt kommer att gynna försvarare snarare än angripare. Han framhåller att tekniken ger bredare tillgång till information om sårbarheter och en ökad förmåga att upptäcka återkommande buggar, vilket ger säkerhetsteamen ett viktigt övertag.
Källa:
Techspot
av Mikael Winterkvist | aug 22, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI:s vd Sam Altman bekräftade nyligen att arbetet med GPT-6 redan har inletts och att utvecklingen inte kommer att ta lika lång tid som för GPT-5.
Beskedet kom inte som någon överraskning, eftersom företaget under senare tid tydligt har rört sig mot att bli mer produktfokuserat än forskningsinriktat. Samtidigt väcker det frågor om hur OpenAI ska hantera förväntningar efter lanseringen av GPT-5, som av många upplevdes som överreklamerad.
GPT-5 innebar visserligen märkbara förbättringar jämfört med GPT-4, särskilt inom kodning, men utrullningen gick inte smidigt. Flera användare hoppades på mer än gradvisa förändringar. Altman själv medger att lanseringen kunde ha skötts bättre, men försvarar utvecklingen och menar att modellen trots kritiken inte var så svag som vissa framställde den.
”Jag gillar den nya mycket bättre,” sa han till reportrar i förra veckan, och syftade på en tonjustering som gjorts i GPT-5 för att göra modellen ”mycket varmare” i sitt språkbruk.
Större och annorlunda
Altman betonade samtidigt att GPT-6 kommer att bli både större och annorlunda, och att arbetet redan är i gång. Han framhöll också att det inte är den enda nyheten från företaget. Bland annat testas nu förbättringar av röstläget där användare ska kunna justera hastigheten, samt en ny version av Codex som gör det möjligt att aktivera automatisk kodgranskning för alla pull requests.
Källa:
Bleeping Computer
av Mikael Winterkvist | aug 21, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Jeff Wang fick en oväntad befordran i juli när han utsågs till tillförordnad vd för AI-bolaget Windsurf. För många av de anställda var det dock ingen glädjens dag. Samtalen om en försäljning till OpenAI hade kollapsat, och kort därefter gick flera av grundarna och ledande forskarna över till Google i samband med ett licensavtal värt 2,4 miljarder dollar.
Som en av de högst placerade cheferna som fanns kvar lyftes Wang till toppositionen. Hans första uppgift blev att möta en känsloladdad personalgrupp på huvudkontoret i Silicon Valley. Enligt Wang var stämningen så tung att han fick ägna halva tiden åt att lugna ned medarbetare som oroade sig för framtiden.
Windsurf är långt ifrån ensamt. Allt fler AI-startups töms på talang när teknikjättar som Meta, Google, Microsoft och Amazon lockar över grundare och toppforskare med miljardaffärer. För de största bolagen blir det en genväg till kompetens och teknik, samtidigt som man undviker regulatorisk granskning. För grundare och ledare innebär det ofta enorma vinster, men investerare, övriga anställda och själva företaget riskerar att stå kvar i ett vakuum.
Fenomenet
Fenomenet har fått investerare att beskriva vissa kvarvarande startups som ”zombieföretag” utan tydlig framtid. Liknande uppköp och talangövergångar har redan skakat branschen. Meta investerade i juni 14,3 miljarder dollar i Scale AI och tog in bolagets vd Alexandr Wang för att leda en ny superintelligenssatsning. Strax efteråt minskade Scale personalstyrkan med 200 personer, trots att värderingen fördubblats på papperet.
Microsoft, Amazon och Google har använt samma modell. De har köpt licenser för teknik och samtidigt rekryterat nyckelpersoner, snarare än att förvärva hela bolag. På så sätt undviker de ofta de omfattande granskningar som följer med stora fusioner och uppköp.
För riskkapitalet, som länge varit motorn i Silicon Valley, innebär utvecklingen ett problem. Startups som tidigare hade siktet inställt på börsnoteringar eller uppköp splittras, och pengarna hamnar främst hos grundare och ett fåtal ledande ingenjörer.
Nyckelpersoner
Branschföreträdare menar att de stora teknikjättarna har hittat en metod som låter dem stärka sig inom AI utan att öppet bryta mot konkurrenslagar. Genom att ta minoritetsposter och plocka nyckelpersoner kan de närma sig ett förvärv utan att formellt utlösa regler om förhandsgranskning.
Regleringsmyndigheter är dock inte helt passiva. Den amerikanska konkurrensmyndigheten FTC har öppnat utredningar om Microsofts rekrytering från Inflection och Amazons affär med Adept, men resultatet återstår att se.
För de många mindre bolag som hamnar i kläm är osäkerheten stor. Medan grundarna ofta gör miljardvinster kan de anställda och investerarna bli kvar i företag som tappat sin kärna – och sin framtid.
Källa:
CNBC