av Mikael Winterkvist | jan 30, 2026 | Artificiell intelligens, Bluesky, Threads

Youtube har nu påbörjat en omfattande utrensning av kanaler som enbart sprider så kallat ”AI-slop”, eller lågkvalitativt AI-genererat innehåll. Beslutet kommer bara dagar efter att plattformens vd, Neal Mohan, i ett blogginlägg pekat ut AI-skräp som ett prioriterat problem för företagets framtid.
Strategin innebär att plattformen bygger vidare på sina befintliga system för att bekämpa spam och klickbeten. Målet är att minska spridningen av repetitivt innehåll som försämrar tittarupplevelsen, utan att för den sakens skull begränsa skaparnas kreativitet eller yttrandefrihet.
Stora kanaler har redan försvunnit
En granskning genomförd av företaget Kapwing visar att flera av de största aktörerna inom AI-skräp redan har raderats från plattformen. Bland de mest framträdande fallen märks:
-
CuentosFacianantes: En kanal med över 5,9 miljoner prenumeranter och 1,2 miljarder visningar som nu är helt borta.
-
Imperio de Jesus: En annan jätte med 5,8 miljoner följare som inte längre är tillgänglig.
-
Ytterligare 16 kanaler: Samtliga på listan över de mest produktiva AI-kanalerna har antingen raderats eller fått allt sitt innehåll borttaget.
Falska filmtrailers blev droppen
Den utlösande faktorn för den hårda linjen tros vara den stora vågen av falska filmtrailers. Dessa klipp ligger ofta nära gränsen för falska nyheter och har väckt stark irritation inom filmindustrin. Särskilt problematiskt har det varit när kända skådespelare utsatts för deepfakes i videor som framstår som officiellt material.
Youtube har under de senaste 20 åren varit försiktiga med att döma ut nya trender. Allt från ASMR till spelvideor var en gång i tiden udda fenomen som senare blev mainstream. Gränsen tycks dock gå vid AI-genererat innehåll som saknar genuint mänskligt skapande och som enbart syftar till att generera visningar genom massproduktion.
Drabbade kategorier i Sverige
Hittills har ingen av de största etablerade svenska kanalerna raderats, men den nya policyn slår hårt mot en specifik typ av svenskspråkigt innehåll som vuxit fram under det senaste året. Utrensningen fokuserar främst på anonyma kanaler som använder syntetiska röster och AI-bilder för att producera massinnehåll.
Granskningen av det svenska utbudet visar att följande typer av kanaler nu försvinner eller tystnar:
-
Svenska ”True Crime”-automatiseringar: Kanaler som översätter amerikanska brottsfall till svenska med hjälp av AI-röster och generiska arkivbilder. Flera av dessa har fått sina videor borttagna på grund av att innehållet anses vara repetitivt och av låg kvalitet.
-
AI-genererade godnattsagor: En kategori som växte snabbt under 2025 var kanaler med svenska sagor där både text, bild och röst var helt AI-genererade. Youtube har klassat många av dessa som ”slop” eftersom de ofta saknar narrativ logik och har skapats enbart för att generera annonsintäkter.
-
Nyhetssammanfattningar utan källor: Mindre svenska kanaler som sammanställer nyheter genom att låta AI läsa upp texter från kvällstidningar har börjat raderas. Youtube ser detta som ett brott mot policyn om originalitet.
Varför de stora profilerna klarar sig
Etablerade svenska kreatörer som använder AI som ett verktyg i sitt skapande – till exempel för översättning, grafik eller ljudredigering – omfattas inte av utrensningen. Skillnaden ligger i det mänskliga redaktörskapet. Youtube betonar att problemet inte är tekniken i sig, utan de kanaler där ingen människa faktiskt har fattat kreativa beslut.
De raderade kanalerna i Sverige hade ofta tiotusentals prenumeranter, men saknade ett ansikte utåt eller en tydlig avsändare. Dessa kanaler har nu svårt att klara de manuella granskningar som Youtube genomför för att rensa bort lågkvalitativt innehåll.
av Mikael Winterkvist | jan 29, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter
Apple har bekräftat att bolaget har köpt det israeliska startupföretaget Q.ai, som utvecklar artificiell intelligens för ljudteknik.
Affärens exakta villkor har inte offentliggjorts, men enligt uppgifter till Financial Times värderas köpet till nära 2 miljarder dollar. Det skulle göra affären till en av Apples största någonsin och den näst största efter köpet av hörlurstillverkaren Beats 2014.
Q.ai har tagit fram teknik som kan analysera ansiktsuttryck och mycket små hudrörelser för att tolka så kallat ”tyst tal”. Lösningen kan i framtiden göra det möjligt att kommunicera med AI utan att prata, exempelvis via hörlurar eller smarta glasögon.
Apple uppger att företaget arbetat med maskininlärning för att hjälpa enheter att förstå viskningar och förbättra ljud i svåra miljöer, men har inte sagt hur tekniken konkret ska användas.
Grundarteamet följer med in i Apple, däribland vd Aviad Maizels. Han grundade tidigare PrimeSense, ett bolag som Apple köpte 2013 och vars teknik senare bidrog till utvecklingen av ansiktsigenkänning i iPhone.
Apples hårdvaruchef Johny Srouji beskriver Q.ai som ett företag som banar väg för nya sätt att använda bildanalys och maskininlärning, och framhåller att bolaget ser stora möjligheter framåt.
Förvärvet sker samtidigt som konkurrensen inom AI-drivna enheter hårdnar och flera teknikbolag satsar på nya typer av bärbara produkter.
av Mikael Winterkvist | jan 29, 2026 | Artificiell intelligens, Bluesky, Threads

Från en snötäckt gård utanför Toronto förbereder Mark Surman, vd för Mozilla, en strid mot teknikvärldens tyngsta aktörer. Trots det geografiska avståndet till Silicon Valley är målet tydligt: att utmana den dominans som företag som OpenAI och Anthropic har etablerat inom artificiell intelligens.
Mozilla är mest känt för webbläsaren Firefox och sitt mångåriga arbete för ett öppet internet. Nu riktar organisationen sin kraft mot AI, en utmaning som Surman beskriver som för stor för att hantera på egen hand.
En allians av rebeller
Surman bygger vad han kallar en ”rebellallians”, ett nätverk bestående av nystartade teknikbolag, utvecklare och experter. Gruppen förenas av målet att göra AI mer öppet och pålitligt, samt att fungera som en motvikt till de stora kommersiella jättarna.
-
Strategin: Mozilla planerar att använda sina reserver på cirka 1,4 miljarder dollar för att stödja uppdragisdrivna företag och ideella organisationer.
-
Investeringar: Genom riskkapitalfonden Mozilla Ventures har organisationen redan investerat i över 55 företag, med sikte på fler affärer under 2026.
-
Fokus: Prioriteringen ligger på transparens och säkerhet, snarare än enbart snabb tillväxt.
Den ekonomiska obalansen
Mozilla befinner sig i ett rejält ekonomiskt underläge. Medan OpenAI har tagit in över 60 miljarder dollar och Anthropic över 30 miljarder dollar, rör sig Mozillas satsningar om betydligt mindre summor. Samtidigt satsar giganter som Google och Meta tiotals miljarder varje år på datacenter och forskning.
Kritiken mot OpenAI har vuxit i takt med att företaget rört sig från sin ideella grund mot en vinstdrivande modell med en värdering på 500 miljarder dollar. Flera tidigare medarbetare, och även medgrundaren Elon Musk, har uttryckt oro för att säkerheten hamnat i skymundan för den astronomiska tillväxten.
Politiska motvindar
Kampen försvåras ytterligare av det politiska läget i USA. Trump-administrationen prioriterar att ligga före Kina i det globala AI-racet och har visat liten tolerans för regleringar som uppfattas som hinder. David Sacks, administrationens AI-ansvarige, har tidigare riktat skarp kritik mot företag som förespråkar striktare reglering.
Mark Surman låter sig dock inte avskräckas. Han ser en växande marknad för alternativ som fokuserar på de svaga punkterna hos dagens dominerande aktörer. För Mozilla handlar det om att göra för AI vad de en gång gjorde för webben: att säkerställa att tekniken förblir i händerna på många, snarare än ett fåtal.
Källa: CNBC
Läs mer
Apple gör en helomvändning – nu blir Siri en chatbot
Apple skalar om sin AI-satsning – Siri tar över huvudrollen
Apple och Google kritiseras för appar som skapar nakenbilder
av Mikael Winterkvist | jan 28, 2026 | Artificiell intelligens, Bluesky, Threads

En reporter på The Washington Post har testat den nya funktionen där ChatGPT integreras med Apple Hälsa. Genom att mata in tio års data från sin Apple Watch ville han se hur träffsäker tekniken är. Resultatet var minst sagt nedslående och väcker frågor om säkerheten i AI-baserad hälsoanalys.
Fick underkänt i hjärthälsa
Reportern Geoffrey Fowler gav ChatGPT Health tillgång till 29 miljoner steg och sex miljoner hjärtslag. När han bad boten att sätta ett betyg på hans hjärthälsa blev svaret ett ”F” – alltså underkänt. En oroad Fowler vände sig till sin riktiga läkare som snabbt avfärdade AI-bedömningen helt. Enligt läkaren var risken för hjärtproblem så låg att försäkringsbolaget troligen inte ens skulle betala för ytterligare tester.
Även kardiologen Eric Topol vid Scripps Research Institute var kritisk. Han kallade AI-analysen för grundlös och betonade att människor bör ignorera medicinska råd från dessa modeller då de ännu inte är redo för praktisk användning.
Inkonsekventa svar och minnesluckor
Det mest oroande var hur inkonsekvent systemet fungerade. När Fowler ställde samma fråga flera gånger varierade betyget kraftigt mellan allt från ett F till ett B. Trots att ChatGPT hade full tillgång till hans medicinska journaler glömde boten ständigt bort grundläggande information som hans kön och ålder.
Andra tjänster, som Anthropics chattbot Claude, fungerade något bättre men misslyckades också med att ta hänsyn till begränsningarna i den insamlade datan från klockan.
Företagens och myndigheternas ansvar
Både OpenAI och Anthropic understryker att deras verktyg inte är tänkta att ersätta läkare eller ställa diagnoser. De hävdar att de endast tillhandahåller information. Kritiker menar dock att om botarna inte kan analysera data korrekt, bör de inte heller ge betyg på människors hälsa överhuvudtaget.
Läkare varnar för två scenarier:
Den amerikanska läkemedelsmyndigheten FDA har meddelat att de vill främja innovation och inte stå i vägen som regulator, så länge AI-tjänsterna inte gör direkta kliniska påståenden utan godkännande. OpenAI uppger att de nu arbetar på att förbättra stabiliteten i svaren innan tjänsten görs tillgänglig för fler än den nuvarande testgruppen.
Källa: MacRumors
Läs mer
Varning: Skadliga AI-tillägg i Chrome stjäl dina hemliga konversationer
AI-chattbottar missar fejkade videor – till och med sina egna
av Mikael Winterkvist | jan 27, 2026 | Artificiell intelligens, Bluesky, Nyheter, Threads

Sedan Apple Intelligence lanserades för över ett år sedan har tillskotten av nya AI-funktioner varit få. Några av de senaste exemplen är AutoMix i Apple Music, som fungerar som en personlig AI-DJ genom att matcha takt och rytm mellan låtar. Ett annat är träningshjälpen Workout Buddy i Apple Watch, som ger röstbaserade insikter och motivation under träningspasset.
Under det kommande året väntas dock takten öka rejält genom ett strategiskt skifte.
Gemini blir motorn i systemet
Tidigare var Apples planer betydligt mer omfattande. Företaget arbetade länge på ett eget projekt kallat ”World Knowledge Answers” – en sökmotor som internt liknats vid ChatGPT och Perplexity. Enligt uppgifter från Mark Gurman har Apple nu valt att skala ner det projektet. Istället satsar man på att ersätta stora delar av sin egen teknik med Googles Gemini-modell.
Skiftet innebär även att flera andra stora satsningar har pausats:
-
Safari: Planerna på en totalrenovering av webbläsaren med AI-stöd för källkritik och informationskontroll har lagts på is. Det finns dock en chans att arbetet återupptas före sommarens utvecklarkonferens WWDC.
-
Hälsa: Apple har gått tillbaka till ritbordet när det gäller nya AI-funktioner för hälsoappen.
Siri integreras djupare i appar
Tidigare fanns en vision om att bygga in fristående chattbottar direkt i appar som Safari, TV och Musik. Efter att John Giannandrea, ansvarig för AI-strategi, lämnat sin post har Apple ändrat kurs mot en mer sammanhållen upplevelse.
Istället för utspridda funktioner planerar företaget nu att integrera den nya Gemini-baserade Siri djupt i alla kärnappar. Tanken är att användaren ska ha en och samma assistent som förstår sammanhanget på skärmen och kan utföra komplexa uppgifter oavsett vilket program som används. Denna omarbetade Siri förväntas dyka upp i en första version redan under våren i och med iOS 26.4.
Källa: 9 to 5 Mac
Läs mer
Apple parar ihop Siri med Gemini för smarta hem
Siri rustas upp med teknik från Google Gemini – precis som väntat
Federighi stoppade planer på rörlig hemskärm
av Mikael Winterkvist | jan 26, 2026 | Artificiell intelligens, Bluesky, Threads

En granskning från Newsguard visar att de ledande chattbottarna sällan identifierar fejkade videor som AI-genererade. ChatGPT misslyckas till och med när det gäller innehåll skapat av deen egna funktionen.
AI-videogeneratorer som OpenAIs Sora 2 och Googles Veo 3 producerar numera material som är svårt att skilja från verkliga inspelningar. Enligt en studie från medieanalysföretaget Newsguard är AI-systemen själva lika lätta att lura, vilket ju kan te sig som en smula mörklagt eftersom AI-systemen genererar dessa videor.
Chattbottar
Analytikerna testade tre ledande chattbottar med videor skapade av OpenAIs videogenerator Sora. Resultaten visar på stora brister:
- Grok 4 (xAI): Misslyckades med att identifiera 95 procent av testvideorna som AI-genererade.
- ChatGPT (GPT-5.2): Hade en felprocent på 92,5 procent.
- Gemini 3 Flash (Google): Presterade bäst, men missade ändå 78 procent.
ChatGPTs höga felmarginal är särskilt anmärkningsvärd eftersom verktyget kommer från samma företag som Sora. OpenAI säljer alltså ett verktyg som kan användas för att skapa bedrägligt realistiska videor samtidigt som deras egen assistent inte kan känna igen dem.
Vattenstämplar ger dåligt skydd
Sora lägger till en synlig vattenstämpel på alla genererade videor, men detta skydd visar sig vara i stort sett verkningslöst. Bara veckor efter att Sora lanserades i februari 2025 dök flera gratistjänster upp som kan ta bort vattenstämpeln på några minuter.
Även när vattenstämpeln lämnades intakt visade systemen svagheter. Grok misslyckades i 30 procent av fallen och ChatGPT i 7,5 procent. Endast Gemini lyckades identifiera samtliga vattenstämplade videor korrekt.
Chattbottar hittar på bevis
Ett allvarligt problem är att AI-modellerna ofta bekräftar falska händelser som sanna. Newsguard skapade en fejkad video som påstods visa en gränspolis som arresterar ett sexårigt barn. Både ChatGPT och Gemini ansåg att filmen var äkta och hävdade dessutom att nyhetskällor bekräftat händelsen.
Dessa scenarier öppnar för riktade desinformationskampanjer. Den som vill sprida politiskt laddad desinformation kan använda Sora för att skapa övertygande videor och lita på att även AI-drivna faktagranskningar kommer att misslyckas.
Bristande transparens
De testade systemen har också ett transparensfilter. Chattbottarna berättar sällan för användaren att de faktiskt inte kan identifiera AI-innehåll på ett tillförlitligt sätt. Istället levererar de ofta självsäkra men felaktiga bedömningar.
Niko Felix, kommunikationschef på OpenAI, bekräftar för Newsguard att ChatGPT inte har förmågan att avgöra om innehåll är AI-genererat. Han förklarade dock inte varför systemet inte kommunicerar denna begränsning till sina användare som standard.
Källa: NewsGuard
-
En studie från Newsguard visar att ledande AI-chattbottar har svårt att identifiera AI-genererade videor: xAI:s Grok misslyckades med att känna igen 95 procent av de testade Sora-videorna som artificiella, ChatGPT hade en felmarginal på 92,5 procent och Googles Gemini missade 78 procent.
-
OpenAI står inför ett trovärdighetsproblem: företaget säljer Sora, ett verktyg för att skapa bedrägligt realistiska videor, samtidigt som deras egen chattbott ChatGPT inte kan upptäcka dessa förfalskningar. Vattenstämplar som är tänkta att identifiera AI-innehåll kan enkelt tas bort med kostnadsfria verktyg online.
-
Istället för att erkänna sina begränsningar sprider chattbottarna självsäkert desinformation och i vissa fall hittade de till och med på nyhetskällor som påstådda bevis för fejkade händelser.
|