En omfattande europeisk studie, ledd av BBC och samordnad av European Broadcasting Union (EBU), visar att AI-assistenter systematiskt förvränger nyhetsinnehåll – oavsett språk, land eller plattform. Resultaten presenterades vid EBU:s nyhetskonferens i Neapel och bygger på den mest genomgripande granskningen av sitt slag hittills.
I undersökningen deltog 22 public service-bolag i 18 länder och på 14 språk. Tillsammans granskade journalister över 3 000 svar från ChatGPT, Copilot, Gemini och Perplexity. Svaren utvärderades utifrån kriterier som faktakorrekthet, källhänvisningar, förmågan att skilja fakta från åsikt samt kontext.
Resultaten är tydliga:
- 45 procent av alla svar innehöll minst ett betydande problem.
- 31 procent hade allvarliga brister i källhänvisningar, där källor saknades, var felaktiga eller missvisande.
- 20 procent innehöll stora faktafel, inklusive påhittade detaljer och inaktuell information.
- Gemini presterade sämst, med problem i 76 procent av svaren – mer än dubbelt så mycket som övriga assistenter, främst på grund av svaga källangivelser.
Jämfört med en tidigare BBC-studie har vissa förbättringar skett, men felfrekvensen är fortfarande hög.
Forskarna varnar för konsekvenserna. AI-assistenter ersätter redan sökmotorer för många användare. Enligt Reuters Institute’s Digital News Report 2025 får sju procent av alla nätanvändare sina nyheter via AI-assistenter – en siffra som stiger till 15 procent bland personer under 25 år.
Inte enstaka misstag
”Den här forskningen visar tydligt att problemen inte är enstaka misstag,” säger EBU:s mediedirektör Jean Philip De Tender. ”De är systematiska, språköverskridande och gränsöverskridande – och de hotar allmänhetens förtroende. När människor inte vet vad de ska lita på riskerar de att inte lita på någonting alls, vilket i förlängningen kan skada demokratin.”
Peter Archer, programdirektör för generativ AI på BBC, tillägger: ”Vi ser stora möjligheter med AI, men människor måste kunna lita på det de läser och ser. Trots vissa framsteg är problemen fortfarande betydande. Vi vill att dessa verktyg ska fungera och samarbetar gärna med AI-företagen för att förbättra dem till nytta för publiken och samhället.”
Som en del av projektet har forskargruppen tagit fram News Integrity in AI Assistants Toolkit – ett verktyg som ska bidra till lösningar på de identifierade problemen. Syftet är både att förbättra svaren från AI-assistenter och stärka mediekompetensen hos användare. Verktyget behandlar två huvudfrågor: ”Vad kännetecknar ett bra AI-svar på en nyhetsfråga?” och ”Vilka brister behöver åtgärdas?”.
EBU och dess medlemsorganisationer uppmanar nu EU och nationella tillsynsmyndigheter att tillämpa befintliga lagar om informationsintegritet, digitala tjänster och mediemångfald. De betonar också behovet av oberoende, kontinuerlig granskning av AI-assistenter i takt med att tekniken utvecklas.
Källa: European Broadcasting Union
Läs mer
Hade CHATGPT varit en riktig medarbetare så hade hen fått sparken
