Yahoo is adding generative AI to its search engine

Yahoo is adding generative AI to its search engine

Yahoo has announced a new AI-powered ”answer engine”, dubbed Yahoo Scout. The new tool is available now in beta and is powered by Anthropic’s Claude.

The company says Scout ”synthesizes” info from the web, as well as Yahoo’s own data and content when constructing responses to user’s natural-language search queries. Yahoo says the interface will include interactive digital media, structured lists and tables and visible source links aimed at making answers easier to verify. (Disclosure: Yahoo is the parent company of Engadget.)

Källa: Yahoo is adding generative AI to its search engine

Clawdbot sparks Mac mini memes as Anthropic forces name change

Clawdbot sparks Mac mini memes as Anthropic forces name change

blank

If you’re seeing a lot of photos of stacks of Mac mini machines filling the internet, that’s been sparked by the development of Clawdbot by Peter Steinberger. It’s an open-source project that allows you to run your own personal AI assistant, and multiple M4 Mac minis seem to be the hardware of choice.

It’s the very definition of a nerdy project, and the memes doing the rounds very much reflect this – though it seems not everybody is amused …

 

Källa: Clawdbot sparks Mac mini memes as Anthropic forces name change

EDRi calls for action as EU probes X’s Grok over AI-generated harm – European Digital Rights (EDRi)

EDRi calls for action as EU probes X’s Grok over AI-generated harm – European Digital Rights (EDRi)

blank

26 January 2026 – Today, the European Commission (EC) opened a formal investigation into Grok, the AI chatbot integrated into X, under the Digital Service Act (DSA) for allowing users to easily create and disseminate fake sexualised and nude pictures based on real people’s photographs without their consent.

The Commission states that X may have failed to assess and mitigate the systemic risks posed by its platform, including the dissemination of illegal content with “negative effects in relation to gender-based violence, and serious negative consequences to physical and mental well-being”.

EDRi very much welcomes the EC decision, albeit a late one, as a necessary first step to address the serious and systemic harms caused by Grok. X’s AI chatbot was put on the market and integrated into the platform without a meaningful risk assessment or adequate safeguards, despite the clear obligations imposed on X by the DSA.

Källa: EDRi calls for action as EU probes X’s Grok over AI-generated harm – European Digital Rights (EDRi)

Meta testar nya betalversioner för Instagram och WhatsApp

Meta testar nya betalversioner för Instagram och WhatsApp

En grupp människor som ser förvånade och fascinerade ut över en surfplatta i ett professionellt eller socialt sammanhang.

Teknikjätten Meta planerar att rulla ut premiumprenumerationer för sina populära plattformar under de kommande månaderna. Satsningen är ett led i företagets strategi att hitta nya intäktskällor genom betaltjänster kopplade till artificiell intelligens.

Grundtjänsterna för Instagram, Facebook och WhatsApp kommer dock att förbli kostnadsfria.

AI-verktyg och autonoma agenter

En central del av de nya paketen handlar om utökad AI-funktionalitet. Meta planerar bland annat att ta betalt för specialfunktioner i videoappen Vibes, där användare kan skapa rörligt material med hjälp av visuella AI-verktyg.

Dessutom ska tekniken från det nyligen uppköpta bolaget Manus integreras i prenumerationerna. Manus har gjort sig kända för att utveckla ”autonoma agenter” – digitala medhjälpare som kan utföra komplexa uppgifter helt på egen hand. Istället för att användaren måste ge instruktioner i flera steg, kan dessa agenter självständigt planera och genomföra projekt som att boka resor eller skapa presentationer.

Granskning och tidigare tester

Affären med Manus, som värderas till cirka två miljarder dollar, har dock inte varit helt problemfri. Myndigheter i Peking har inlett en utredning för att kontrollera om försäljningen bryter mot kinesiska lagar för teknikexport eller nationella säkerhetsregler.

Meta har redan tidigare experimenterat med olika typer av begränsningar för att locka användare till betalmodeller. Under förra året testades en spärr för hur många länkar en användare fick dela i sina inlägg utan att ha en aktiv prenumeration. Företaget erbjuder sedan 2023 även en betaltjänst för verifiering, där användare får den blå bockmarkeringen mot en månadskostnad.

AI-hälsa under lupp – ChatGPT gav friska hjärtan underkänt

AI-hälsa under lupp – ChatGPT gav friska hjärtan underkänt

blank

En reporter på The Washington Post har testat den nya funktionen där ChatGPT integreras med Apple Hälsa. Genom att mata in tio års data från sin Apple Watch ville han se hur träffsäker tekniken är. Resultatet var minst sagt nedslående och väcker frågor om säkerheten i AI-baserad hälsoanalys.

Fick underkänt i hjärthälsa

Reportern Geoffrey Fowler gav ChatGPT Health tillgång till 29 miljoner steg och sex miljoner hjärtslag. När han bad boten att sätta ett betyg på hans hjärthälsa blev svaret ett ”F” – alltså underkänt. En oroad Fowler vände sig till sin riktiga läkare som snabbt avfärdade AI-bedömningen helt. Enligt läkaren var risken för hjärtproblem så låg att försäkringsbolaget troligen inte ens skulle betala för ytterligare tester.

Även kardiologen Eric Topol vid Scripps Research Institute var kritisk. Han kallade AI-analysen för grundlös och betonade att människor bör ignorera medicinska råd från dessa modeller då de ännu inte är redo för praktisk användning.

Inkonsekventa svar och minnesluckor

Det mest oroande var hur inkonsekvent systemet fungerade. När Fowler ställde samma fråga flera gånger varierade betyget kraftigt mellan allt från ett F till ett B. Trots att ChatGPT hade full tillgång till hans medicinska journaler glömde boten ständigt bort grundläggande information som hans kön och ålder.

Andra tjänster, som Anthropics chattbot Claude, fungerade något bättre men misslyckades också med att ta hänsyn till begränsningarna i den insamlade datan från klockan.

Företagens och myndigheternas ansvar

Både OpenAI och Anthropic understryker att deras verktyg inte är tänkta att ersätta läkare eller ställa diagnoser. De hävdar att de endast tillhandahåller information. Kritiker menar dock att om botarna inte kan analysera data korrekt, bör de inte heller ge betyg på människors hälsa överhuvudtaget.

Läkare varnar för två scenarier:

  • Onödig oro: Friska människor blir skrämda av felaktiga varningar.

  • Falsk trygghet: Personer med faktiska hälsoproblem får höra att allt ser bra ut.

Den amerikanska läkemedelsmyndigheten FDA har meddelat att de vill främja innovation och inte stå i vägen som regulator, så länge AI-tjänsterna inte gör direkta kliniska påståenden utan godkännande. OpenAI uppger att de nu arbetar på att förbättra stabiliteten i svaren innan tjänsten görs tillgänglig för fler än den nuvarande testgruppen.

Källa: MacRumors

Läs mer

Varning: Skadliga AI-tillägg i Chrome stjäl dina hemliga konversationer

 

AI-chattbottar missar fejkade videor – till och med sina egna