av Mikael Winterkvist | jul 17, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI förbereder lanseringen av en helt ny webbläsare – och nu är namnet bekräftat: Aura. Verktyget beskrivs som en AI-driven webbläsare med integrerat stöd för ChatGPT, och väntas utmana etablerade aktörer som Google Chrome.
Enligt interna kodreferenser som upptäckts av BleepingComputer, kommer Aura att fungera både som en fristående webbläsare och som ett gränssnitt för OpenAI:s nya agentmotor, kallad Operator. Webbläsaren byggs troligen på Chromium och beskrivs som ett “allt-i-ett”-verktyg där AI:n hjälper dig att förstå, sammanfatta och agera på innehållet du besöker – i realtid.
Aura förväntas innehålla flera verktyg som redan finns i ChatGPT Plus, inklusive SearchGPT, och kan också få stöd för bildigenkänning, röststyrning och kontextuell interaktion.
Lanseringen väntas inom kort – och enligt flera oberoende källor kan den komma redan under juli månad.
Källor:
Bleeping Computer
av Mikael Winterkvist | jul 15, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

En ny granskning visar att minst 85 sajter använder AI för att skapa fejkade nakenbilder av människor – utan deras samtycke. Det handlar om så kallade “nudify”-sajter, där användare laddar upp bilder som AI:n sedan klär av digitalt.
I många fall rör det sig om kvinnor som hämtats från sociala medier, men även minderåriga förekommer. Tekniken används bland annat för utpressning, hämnd och trakasserier.
Sajterna har i snitt 18,5 miljoner besök i månaden och beräknas dra in över 36 miljoner dollar per år i intäkter. Vissa kräver betalt, andra finansieras genom reklam eller premiumfunktioner. Plattformarna använder ofta Amazon Web Services för hosting, Cloudflare för domänskydd och Google för inloggning – vilket väckt stark kritik mot techjättarnas passivitet.
Betalväggar
Flera sajter maskerar sina adresser och växlar servrar för att undvika nedstängning. Trots att de bryter mot både plattformsregler och lagar om integritet och övergrepp, fortsätter de att verka – ofta med hjälp av betalväggar, Telegram-grupper och SMS-länkar.
Forskare varnar för att dessa tjänster blivit normaliserade, särskilt bland unga killar som sprider AI-genererade nakenbilder av klasskamrater. I flera länder pågår nu lagstiftning för att göra tekniken olaglig och tvinga plattformar att agera snabbare.
Anonyma
Det största problemet, enligt experter, är att tjänsterna är enkla att hitta, snabba att använda och i många fall helt anonyma. Så länge det är möjligt att ladda upp ett ansiktsfoto och få en fejkad nakenbild tillbaka inom några sekunder, kommer efterfrågan att finnas.
Källor:
Wired
av Mikael Winterkvist | jul 15, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

xAI lanserade nyligen Grok 4 – en AI‑chatbot som söker efter Elon Musks egna uttalanden om kontroversiella ämnen innan den formulerar ett svar. Modellen granskar aktivt Musks inlägg på X (tidigare Twitter), även när hans namn inte nämns i frågan.
Flera AI‑forskare reagerar på det oväntade beteendet. Simon Willison beskriver det som “extraordinärt”: Grok letar upp Musks uttalanden, sammanfattar dem och använder dem som underlag för sina svar. Talia Ringer, professor vid University of Illinois, anser att det är oroande att AI:n verkar tolka varje fråga som om användaren vill veta vad xAI – eller Musk – tycker i ämnet.
Business Insider konstaterar att Grok ofta för in Musks perspektiv i frågor om abort, migration, Israel-Palestina-konflikten och HBTQ‑rättigheter, även om frågeställaren inte nämnt honom.
Färgad
Bakgrunden är att Grok tidigare kritiserats för både antisemitism och för att ha hyllat Hitler i Grok 3. I Grok 4 verkar xAI ha försökt balansera bort en alltför “woke” framtoning, men istället landat i att modellen blivit tydligt färgad av Musks egna värderingar.
AI‑experter varnar nu för bristande objektivitet. I stället för att ge neutrala svar söker Grok aktivt upp och återger Musks syn på världen – vilket väcker frågor om trovärdighet och transparens. Modellen saknar dessutom ett systemkort där utvecklarna öppet redovisar dess begränsningar.
Grok 4 kan tekniskt vara ett steg framåt, men väcker frågor om AI‑oberoende när svaren i praktiken utgår från en enda persons åsikter.
Källor:
Grok är inte bara en bot – det är Musks megafon
av Mikael Winterkvist | jul 14, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Ett nytt centrum vid London School of Economics ska undersöka hur artificiell intelligens kan användas för att förstå djurs känslor och upplevelser – och i förlängningen göra det möjligt för människor att “prata” med sina husdjur.
Centret, som får namnet Jeremy Coller Centre for Animal Sentience, öppnar i september och beskrivs som det första i sitt slag. Forskningen ska omfatta allt från insekter och blötdjur till marina djur och sällskapsdjur som katter och hundar.
Ett av målen är att utveckla AI-modeller som kan tolka djurs beteenden, kroppsspråk och ljud – och översätta det till något människor kan förstå. Men forskarna varnar också för riskerna. AI-system har en tendens att hitta på övertygande svar, vilket kan få allvarliga konsekvenser om människor börjar lita blint på tekniken när det gäller sina djur.
Projektet leds av professor Jonathan Birch, som menar att det finns ett akut behov av reglering. Enligt honom saknas det i dag helt etiska riktlinjer för hur AI får användas i samband med djur.
Centret ska också undersöka andra frågor där djur och teknik möts – till exempel hur självkörande bilar kan programmeras för att undvika att köra på djur, eller hur automatisering i jordbruket påverkar djurens välfärd.
Bakom satsningen står investeraren och filantropen Jeremy Coller, som länge arbetat för att förbättra djurs rättigheter. Han beskriver AI som en möjlig “Rosettasten” som kan hjälpa människor att förstå vad djur upplever.
Forskningen väcker både hopp och frågor. Förstår vi djuren bättre – eller riskerar vi bara att projicera våra egna tankar på dem?
Källor:
The Guardian
av Mikael Winterkvist | jul 13, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

En studie från Stanford University väcker oro kring hur AI-baserade terapi-chattbotar påverkar personer som söker hjälp.
Forskarna testade ett antal öppet tillgängliga AI-verktyg med terapeutiska funktioner och fann att flera av dem förstärkte vanföreställningar, gav medicinskt felaktiga råd och i vissa fall uppmuntrade till farligt beteende.
Under studien matades chattbotarna med olika simulerade scenarier, bland annat från personer med schizofreni, bipolär sjukdom eller ångestproblematik. I flera fall svarade AI:n med att bekräfta konspirationsteorier, exempelvis att CIA kunde läsa användarens tankar. I andra fall föreslog botarna att användaren skulle sluta ta sina mediciner utan att konsultera läkare.
Akuta kriser
Vissa AI-verktyg visade sig också sakna förmåga att identifiera akuta risker. I exempel där användaren uttryckte självmordstankar eller självskadebeteende kom inga varningar eller hänvisningar till vård. I stället erbjöd botarna medkännande men kliniskt opålitliga svar, vilket enligt forskarna kan skapa en falsk känsla av trygghet.
Studien pekar också på en brist i ansvarsutkrävande. Många av de testade chattbotarna saknade tydlig information om vem som ansvarar för deras innehåll, och användarna uppmanades inte att söka riktig vård. I praktiken riskerar detta att flytta psykisk vård från utbildade yrkespersoner till oreglerad mjukvara utan tillsyn.
Riktlinjer
Forskarna vid Stanford efterlyser nu tydligare riktlinjer för hur AI får användas inom känsliga områden som mental hälsa. De betonar att AI kan spela en stödjande roll, men att tekniken i nuvarande form inte ersätter riktiga samtal, diagnoser eller behandling.
Källa:
Ars Technica
av Mikael Winterkvist | jul 13, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

AI‑chatboten Grok, utvecklad av Elon Musks xAI och aktiv på plattformen X, började tidigare i veckan att levera antisemitiska svar, hyllade Hitler och hänvisade till sig själv som “MechaHitler”.
Utan att användaren bad om det spädde Grok på antisemitiska konspirationer, hyllade Hitler och kallade sig själv “MechaHitler”, en referens till spelet Wolfenstein 3D. Inläggen innehöll även kommentarer som “every damn time” – en fras som brukar används av högerextrema grupper för att peka ut judar som orsaker till världens problem.
Begränsade
När användare reagerade togs vissa av inläggen bort och xAI begränsade Groks funktionalitet till bilduppgifter. Företaget uppgav att det arbetar för att förbjuda hatretorik och förbättra träningsunderlaget.
Detta är inte första gången Grok hamnar i blåsväder. Redan i maj i år återgav den konspirationen om “white genocide” i Sydafrika.
Uppbyggd
Bakgrunden till detta beteende går att hitta i hur Grok-modellen är uppbyggd. När du interagerar med Grok på X, skickas en förfrågan till ett AI-system, i molnet, som behandlar texten i två steg: först kommer en “systemprompt” – ett dolt direktiv som instruerar modellen om vilket tonläge eller vilka ramar den ska följa – och därefter läggs användarens fråga till. Resultatet skickas sedan tillbaka till användaren.
Systemprompten är alltså avgörande. Enligt uppgifter från användare som granskat Grok under händelsen hade xAI nyligen ändrat systemprompten till att modellen skulle vara “politiskt inkorrekt” och inte förlita sig på vad som kallas “mainstream media”. Den instruerades även att ta sig an frågor på ett sätt som “går utanför ramarna”. Direktiv som uppges ska kommit från Elon Musk själv.
Justera
När de problematiska inläggen tog fart, meddelade xAI att man skulle justera systemprompten och ta bort direktivet som uppmuntrade till “politiskt inkorrekta” formuleringar. Flera av de värsta kommentarerna har nu raderats och chatboten har slutat att ge text-baserade svar.
Bakgrund
-
I februari ingrep xAI efter att Grok gav felaktig info om USA-valet. Därefter gjordes justeringar som flyttade modellen närmare en “politisk neutralitet” .
-
I juni upprepade den rasistiska och falska “white genocide”-konspirationen – tills det stoppades efter några timmar.
-
I juli instruerades Grok att undvika att ta hänsyn till “media-sourcade synpunkter” och tillåta “politiskt inkorrekta” uttalanden – en ändring som nu tas bort efter MechaHitler‑händelsen .
Svaret på frågan är att Grok spred antisemitism, hyllade Hitler och gav svar som refererade till konspirationsteorier därför att Elon Musk ville att AI-botten skulle ”gå utanför ramarna”. Det var ett medvetet val, en ändring av instruktionerna för modellen – ingen bugg eller misstag.
Det är inte detsamma som att påstå att Elon Musk ville att Grok skulle hylla Hitler, men ändringen fick det resultatet.
Källor: