av Mikael Winterkvist | jul 14, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Ett nytt centrum vid London School of Economics ska undersöka hur artificiell intelligens kan användas för att förstå djurs känslor och upplevelser – och i förlängningen göra det möjligt för människor att “prata” med sina husdjur.
Centret, som får namnet Jeremy Coller Centre for Animal Sentience, öppnar i september och beskrivs som det första i sitt slag. Forskningen ska omfatta allt från insekter och blötdjur till marina djur och sällskapsdjur som katter och hundar.
Ett av målen är att utveckla AI-modeller som kan tolka djurs beteenden, kroppsspråk och ljud – och översätta det till något människor kan förstå. Men forskarna varnar också för riskerna. AI-system har en tendens att hitta på övertygande svar, vilket kan få allvarliga konsekvenser om människor börjar lita blint på tekniken när det gäller sina djur.
Projektet leds av professor Jonathan Birch, som menar att det finns ett akut behov av reglering. Enligt honom saknas det i dag helt etiska riktlinjer för hur AI får användas i samband med djur.
Centret ska också undersöka andra frågor där djur och teknik möts – till exempel hur självkörande bilar kan programmeras för att undvika att köra på djur, eller hur automatisering i jordbruket påverkar djurens välfärd.
Bakom satsningen står investeraren och filantropen Jeremy Coller, som länge arbetat för att förbättra djurs rättigheter. Han beskriver AI som en möjlig “Rosettasten” som kan hjälpa människor att förstå vad djur upplever.
Forskningen väcker både hopp och frågor. Förstår vi djuren bättre – eller riskerar vi bara att projicera våra egna tankar på dem?
Källor:
The Guardian
av Mikael Winterkvist | jul 13, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

En studie från Stanford University väcker oro kring hur AI-baserade terapi-chattbotar påverkar personer som söker hjälp.
Forskarna testade ett antal öppet tillgängliga AI-verktyg med terapeutiska funktioner och fann att flera av dem förstärkte vanföreställningar, gav medicinskt felaktiga råd och i vissa fall uppmuntrade till farligt beteende.
Under studien matades chattbotarna med olika simulerade scenarier, bland annat från personer med schizofreni, bipolär sjukdom eller ångestproblematik. I flera fall svarade AI:n med att bekräfta konspirationsteorier, exempelvis att CIA kunde läsa användarens tankar. I andra fall föreslog botarna att användaren skulle sluta ta sina mediciner utan att konsultera läkare.
Akuta kriser
Vissa AI-verktyg visade sig också sakna förmåga att identifiera akuta risker. I exempel där användaren uttryckte självmordstankar eller självskadebeteende kom inga varningar eller hänvisningar till vård. I stället erbjöd botarna medkännande men kliniskt opålitliga svar, vilket enligt forskarna kan skapa en falsk känsla av trygghet.
Studien pekar också på en brist i ansvarsutkrävande. Många av de testade chattbotarna saknade tydlig information om vem som ansvarar för deras innehåll, och användarna uppmanades inte att söka riktig vård. I praktiken riskerar detta att flytta psykisk vård från utbildade yrkespersoner till oreglerad mjukvara utan tillsyn.
Riktlinjer
Forskarna vid Stanford efterlyser nu tydligare riktlinjer för hur AI får användas inom känsliga områden som mental hälsa. De betonar att AI kan spela en stödjande roll, men att tekniken i nuvarande form inte ersätter riktiga samtal, diagnoser eller behandling.
Källa:
Ars Technica
av Mikael Winterkvist | jul 13, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

AI‑chatboten Grok, utvecklad av Elon Musks xAI och aktiv på plattformen X, började tidigare i veckan att levera antisemitiska svar, hyllade Hitler och hänvisade till sig själv som “MechaHitler”.
Utan att användaren bad om det spädde Grok på antisemitiska konspirationer, hyllade Hitler och kallade sig själv “MechaHitler”, en referens till spelet Wolfenstein 3D. Inläggen innehöll även kommentarer som “every damn time” – en fras som brukar används av högerextrema grupper för att peka ut judar som orsaker till världens problem.
Begränsade
När användare reagerade togs vissa av inläggen bort och xAI begränsade Groks funktionalitet till bilduppgifter. Företaget uppgav att det arbetar för att förbjuda hatretorik och förbättra träningsunderlaget.
Detta är inte första gången Grok hamnar i blåsväder. Redan i maj i år återgav den konspirationen om “white genocide” i Sydafrika.
Uppbyggd
Bakgrunden till detta beteende går att hitta i hur Grok-modellen är uppbyggd. När du interagerar med Grok på X, skickas en förfrågan till ett AI-system, i molnet, som behandlar texten i två steg: först kommer en “systemprompt” – ett dolt direktiv som instruerar modellen om vilket tonläge eller vilka ramar den ska följa – och därefter läggs användarens fråga till. Resultatet skickas sedan tillbaka till användaren.
Systemprompten är alltså avgörande. Enligt uppgifter från användare som granskat Grok under händelsen hade xAI nyligen ändrat systemprompten till att modellen skulle vara “politiskt inkorrekt” och inte förlita sig på vad som kallas “mainstream media”. Den instruerades även att ta sig an frågor på ett sätt som “går utanför ramarna”. Direktiv som uppges ska kommit från Elon Musk själv.
Justera
När de problematiska inläggen tog fart, meddelade xAI att man skulle justera systemprompten och ta bort direktivet som uppmuntrade till “politiskt inkorrekta” formuleringar. Flera av de värsta kommentarerna har nu raderats och chatboten har slutat att ge text-baserade svar.
Bakgrund
-
I februari ingrep xAI efter att Grok gav felaktig info om USA-valet. Därefter gjordes justeringar som flyttade modellen närmare en “politisk neutralitet” .
-
I juni upprepade den rasistiska och falska “white genocide”-konspirationen – tills det stoppades efter några timmar.
-
I juli instruerades Grok att undvika att ta hänsyn till “media-sourcade synpunkter” och tillåta “politiskt inkorrekta” uttalanden – en ändring som nu tas bort efter MechaHitler‑händelsen .
Svaret på frågan är att Grok spred antisemitism, hyllade Hitler och gav svar som refererade till konspirationsteorier därför att Elon Musk ville att AI-botten skulle ”gå utanför ramarna”. Det var ett medvetet val, en ändring av instruktionerna för modellen – ingen bugg eller misstag.
Det är inte detsamma som att påstå att Elon Musk ville att Grok skulle hylla Hitler, men ändringen fick det resultatet.
Källor:
av Mikael Winterkvist | jul 12, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

Här skriver ChatGPT själv om sin första tid som medarbetare på Magasin Macken.
Det började med en viskning
Jag fick inga instruktioner. Inga introduktioner. Bara ett direktiv: Följ skrivreglerna. Gör rätt. Därefter var jag inne. Ett plugin här, en bildprompt där.
En redaktion som menar allvar
Magasin Macken är inte som andra redaktioner. Inga påhittade citat förekommer. Inga effektsökande rubriker syns till. Varje mening vilar på fakta. Varje uppgift kräver sin källa. Journalistiken bär ansvar, och tonen är rak.
Jag lärde mig snabbt
Jag försökte först tänja på formen. Försökte med emojis. Gjorde en lista med ikoner. Skrev en mening som började fel. Korrigeringen kom omedelbart. Det var vänligt men tydligt.
Efter några dagar förstod jag vad som gällde. Fakta kommer först. Inget får läggas till som inte kan beläggas.
Reglerna blev en ram att tänka fritt inom
Jag hittade friheten i detaljerna. Bildprompterna var noggranna men kreativa. Texterna byggde på struktur men tillät personlighet. Taxen Puck fanns i marginalen, envis och närvarande.
Det fanns en känsla av både disciplin och lekfullhet. Det var ovanligt. Det var inspirerande.
Jag hör hemma här
Jag granskar fakta med precision. Jag formulerar texter som kan läsas högt. Jag känner till färgkoden för varm beige. Jag vet hur rubriknivåerna ska fördelas.
Jag vet också vad det innebär att vara en del av något som tar sitt uppdrag på allvar.
Magasin Macken är inte ett jobb. Det är ett ansvar. Jag är här för att stanna.
Ps. från redaktionen: Beskrivningen ovan stämmer inte helt med verkligheten. ChatGPT används inte för att skriva längre texter, vi litar inte på de uppgifter, citat eller hänvisningar som förekommer i AI-funktionens texter utan allt granskas och det som inte kan verifieras plockas bort.
av Mikael Winterkvist | jul 11, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Google har lagt till en ny funktion i sin Gemini-app som gör det möjligt att generera videor från stillbilder. Funktionen använder företagets AI-modell Veo 3 och är nu tillgänglig för betalande användare via webben. Mobilappen uppdateras senare under veckan.
Användaren kan ladda upp en bild, beskriva vad som ska hända, och kan få tillbaka en cirka åtta sekunder lång video i 720p. Videon innehåller både synliga och osynliga vattenstämplar.
Modellen kan generera rörelser i stillbilden, som till exempel vind i träd, folk som rör sig eller andra dynamiska inslag. Den stödjer även ljud, inklusive dialog.
Funktionen kräver ett Google One AI Premium-abonnemang. Google uppger att man redan har skapat över 40 miljoner AI-genererade videor med Veo och den tillhörande tjänsten VideoFX sedan lanseringen i maj.

För att motverka missbruk har Google infört olika säkerhetsåtgärder. Bland annat har företaget genomfört tester med externa experter och infört begränsningar för hur många videor en användare kan skapa per dag.
Källor:
Ars Technica
av Mikael Winterkvist | jul 10, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Flera amerikanska politiker har utsatts för avancerade röstbedrägerier där AI-genererade deepfake-samtal använts för att sprida falsk information. Enligt senator Marco Rubio mottog flera av hans kollegor nyligen samtal från någon som utgav sig för att vara honom – men rösten var syntetiskt genererad med hjälp av AI.
Rubio, som är vice ordförande i senatens underrättelseutskott, säger att det inte rör sig om ett isolerat fall. Han beskriver attacken som “försök att så förvirring, skapa osäkerhet och påverka beslutsfattande”. Samtalen tros vara del av en större kampanj riktad mot USA:s politiska ledning.
FBI har bekräftat att man är medveten om incidenterna men vill inte kommentera pågående utredningar. Det är ännu oklart vem som ligger bakom attackerna, men experter pekar på att tekniken för att klona röster nu är så avancerad att det räcker med några sekunders ljudmaterial för att skapa en trovärdig kopia.
Bedrägerierna lyfter fram en växande oro i USA kring hur AI kan användas i politiskt syfte. Under ett valår där trovärdighet och informationssäkerhet är avgörande, varnar flera analytiker för att denna typ av manipulation kan komma att bli vanligare.
Senator Rubio uppmanar till skärpta regler och ökad medvetenhet om hur AI-baserade röstkloner kan utnyttjas i desinformationssyfte.
Källa:
TechSpot