![]()
AI-robotar ger ofta felaktiga och inkonsekventa medicinska råd som kan innebära stora risker för användare. Det visar en ny studie från universitetet i Oxford. Forskningen klargör att personer som söker vårdtips via AI får en blandning av bra och dåliga svar, vilket gör det nästan omöjligt att avgöra vilken information som går att lita på.
Enligt en undersökning från november 2025 använder nu mer än var tredje invånare i Storbritannien AI som stöd för sin psykiska hälsa eller sitt välmående. Dr Rebecca Payne, medicinskt ansvarig för studien, varnar för att det kan vara direkt farligt att låta en chattbot ställa diagnos utifrån symptom.
Svårt att veta vad man ska fråga
I studien deltog 1 300 personer som fick olika scenarier, till exempel svår huvudvärk eller extrem trötthet efter en förlossning. Resultaten visar på flera problem:
-
Otydliga frågor: Användare vet ofta inte exakt hur de ska formulera sina frågor för att få korrekta svar.
-
Slumpmässiga resultat: Svaren varierar kraftigt beroende på ordvalet i frågan.
-
Brist på sammanhang: Folk utelämnar ofta detaljer i sina frågor, vilket leder till att AI-modellen tvingas gissa mellan olika diagnoser.
Dr Adam Mahdi, en av forskarna bakom studien, poängterar att även om AI har tillgång till medicinsk information så misslyckas tekniken med att ge användbara råd när mänskliga nyanser försvinner.
Specialiserade modeller på väg
Trots kritiken pekar experter på att utvecklingen går framåt. Under början av 2026 lanserade både OpenAI och Anthropic specialiserade versioner av sina verktyg: ChatGPT Health och Claude for Healthcare. Dessa är byggda för att bättre kunna hantera medicinsk data och journaler under striktare regler.
Målet för framtiden är att skapa säkrare system med tydliga nationella regleringar och medicinska riktlinjer, snarare än att förlita sig på generella modeller för känsliga hälsofrågor.
Källa: BBC
