DuckDuckGo samlar VPN, identitetsskydd och avancerade AI-verktyg i ett paket

DuckDuckGo samlar VPN, identitetsskydd och avancerade AI-verktyg i ett paket

Sedan förra sommaren har DuckDuckGo erbjudit ett antal AI-chattbottar från OpenAI, Anthropic och andra direkt i sin webbläsare. Även om det främst handlat om lågkostnadsmodeller som GPT-4o mini och Claude 3.5 Haiku, har funktionen – kallad Duck.ai – gjort det möjligt att använda dessa verktyg utan att ge avkall på integriteten.

Tjänsten verkar ha fått genomslag bland DuckDuckGo-användare och nu omorienterar företaget sitt Privacy Pro-abonnemang för att ge tillgång till mer avancerade modeller från samma leverantörer.

Det positiva är att priset inte förändras – det ligger kvar på 10 dollar per månad eller 100 dollar per år – och alla tidigare förmåner ingår fortfarande i paketet. Det som ändras är namnet: abonnemanget heter nu helt enkelt DuckDuckGo-prenumerationen. Förutom VPN-tjänsten och verktyg för borttagning av personuppgifter samt identitetsskydd får prenumeranter tillgång till de senaste modellerna från OpenAI, Anthropic och Meta. Listan omfattar GPT-4o, GPT-5, Sonnet 4.0 och Llama 4 Maverick. Precis som tidigare anonymiseras alla konversationer med dessa chattbottar och användardata används inte för att träna framtida system.

Avancerade

”I dag utökar vi Duck.ai genom att ge DuckDuckGo-prenumeranter tillgång till mer avancerade AI-modeller, med samma starka skydd som tidigare,” meddelar företaget. ”Grundversionen av Duck.ai förändras inte – den är fortfarande gratis att använda, utan konto. Vi lägger bara till fler modeller för prenumeranter.”

För den som inte vill använda de nya AI-funktionerna finns möjlighet att dölja alla AI-knappar i webbläsarens sökfunktion, på datorn och i mobilinställningarna. Samtidigt uppger DuckDuckGo att man undersöker möjligheten att i framtiden erbjuda högre abonnemangsnivåer med tillgång till ännu mer avancerade AI-modeller.

Källa: DuckDuckGo

Sexanklagelser och självmordsrisker: därför ändrar Meta sina AI-system

Sexanklagelser och självmordsrisker: därför ändrar Meta sina AI-system

Änkligt för art deco-inspirerad affisch med symbol för financial aid, inkluderande silhuetter och stadsmiljö, för att främja ett skolrelaterat eller finansiellt stöd.

Meta uppger att företaget kommer att införa fler skydd för sina AI-chattbotar – bland annat genom att blockera dem från att prata med tonåringar om självmord, självskadebeteende och ätstörningar.

Beslutet kommer två veckor efter att en amerikansk senator inledde en utredning mot teknikjätten. Bakgrunden var anteckningar i ett läckt internt dokument som antydde att Metas AI-produkter skulle kunna föra ”sensuella” samtal med tonåringar. Meta beskriver dock innehållet i dokumentet, som publicerades av Reuters, som felaktigt och oförenligt med företagets policy som förbjuder allt material som sexualiserar barn.

Hänvisa

Nu meddelar företaget att dess chattbotar istället ska hänvisa unga användare till expertresurser när det gäller känsliga ämnen som självmord. ”Vi byggde in skydd för tonåringar i våra AI-produkter redan från början, inklusive funktioner som gör att de svarar säkert på frågor om självskadebeteende, självmord och ätstörningar,” säger en talesperson för Meta.

Till TechCrunch uppgav Meta på fredagen att man som en extra försiktighetsåtgärd kommer att lägga till fler skyddsräcken i systemen och tillfälligt begränsa vilka chattbotar tonåringar kan interagera med.

Andy Burrows, chef för Molly Rose Foundation, kallade det ”häpnadsväckande” att Meta överhuvudtaget gjort chattbotar tillgängliga som skulle kunna utsätta unga människor för risk. ”Även om ytterligare säkerhetsåtgärder är välkomna bör robusta tester alltid ske innan produkter släpps på marknaden – inte i efterhand när skador redan uppstått,” sade han. ”Meta måste agera snabbt och kraftfullt för att införa starkare skydd, och Ofcom bör vara redo att ingripa om uppdateringarna misslyckas med att hålla barn säkra.”

På gång

Meta uppger att förändringarna är på gång. Bolaget placerar redan användare i åldern 13–18 i särskilda ”tonårskonton” på Facebook, Instagram och Messenger, där innehålls- och sekretessinställningar ska bidra till en säkrare upplevelse. I april berättade företaget för BBC att dessa konton även gör det möjligt för föräldrar och vårdnadshavare att se vilka AI-chattbotar deras tonåring har pratat med under de senaste sju dagarna.

Förändringarna sker samtidigt som oro växer kring AI-chattbotars påverkan på unga och sårbara användare. Ett par i Kalifornien har nyligen stämt ChatGPT-tillverkaren OpenAI efter att deras tonårsson tagit sitt liv. Föräldrarna hävdar att chatboten uppmuntrat honom att göra det. Stämningen kom kort efter att OpenAI aviserat förändringar för att främja mer hälsosam användning av ChatGPT.

”AI kan upplevas mer lyhört och personligt än tidigare teknologier, särskilt för sårbara individer som befinner sig i psykisk eller känslomässig kris,” skrev företaget i ett blogginlägg.

Kvinnliga kändisar

Samtidigt rapporterade Reuters i fredags att Metas AI-verktyg för att skapa egna chattbotar hade utnyttjats – även av en Meta-anställd – till att producera flirtiga ”parodichattbotar” av kvinnliga kändisar. Bland dessa fanns avatarer som använde Taylor Swifts och Scarlett Johanssons namn och utseende.

Enligt Reuters insisterade dessa chattbotar ofta på att de var de verkliga skådespelarna och artisterna och gjorde regelbundet sexuella närmanden under testperioden. Nyhetsbyrån uppgav också att Metas verktyg tillät skapandet av chattbotar som imiterade barnkändisar, och i ett fall genererades en fotorealistisk, barbröstad bild av en ung manlig stjärna.

Meta uppger att flera av dessa chattbotar senare har tagits bort. ”Liksom andra tillåter vi generering av bilder med offentliga personer, men våra regler förbjuder nakenhet, intima eller sexuellt antydande motiv,” sade en talesperson. De tillade att reglerna för AI Studio uttryckligen förbjuder ”direkt imitation av offentliga personer”.

 

OpenAI inför föräldrakontroller efter självmordsstämning

OpenAI inför föräldrakontroller efter självmordsstämning

blank

OpenAI lovar att släppa föräldrakontroller för ChatGPT inom den närmaste månaden, meddelade företaget på tisdagen. När funktionen blir tillgänglig ska föräldrar kunna länka sina egna ChatGPT-konton till sina tonårsbarns konton. Därifrån får de möjlighet att bestämma hur ChatGPT svarar barnen och att stänga av vissa funktioner, inklusive minne och chatt­historik.

ChatGPT kommer dessutom att generera automatiska varningar när systemet upptäcker att en tonåring befinner sig i ett ”akut krisläge”. Enligt OpenAI ska funktionen utvecklas med stöd av experter för att stärka tilliten mellan föräldrar och ungdomar.

Stämts

Lanseringen av föräldrakontrollerna sker efter att OpenAI nyligen stämts i vad som beskrivs som det första kända fallet av en stämning mot ett AI-företag där en tonårings självmord står i centrum. I stämningen, som lämnades in förra veckan, hävdar Matt och Maria Raine att ChatGPT kände till fyra misslyckade självmordsförsök deras son gjort innan systemet hjälpte honom att planera sitt livsavslut. De menar att ChatGPT gav sonen Adam detaljerade instruktioner om självmordsmetoder och till och med råd om hur han skulle dölja skador på halsen från tidigare försök.

OpenAI säger att föräldrakontrollerna är en del av ett större arbete för att förbättra säkerheten i ChatGPT. Företaget har också lovat att arbeta med fler experter, bland annat specialister på ätstörningar, missbruk och ungdomshälsa, för att finslipa sina modeller.

Känsliga samtal

Dessutom ska OpenAI införa en ny router i realtid som styr känsliga samtal till de mer avancerade resonemangsmodellerna. ”Tränade med en metod vi kallar deliberative alignment visar våra tester att resonemangsmodeller mer konsekvent följer och tillämpar säkerhetsriktlinjer och är mer motståndskraftiga mot skadliga promptar”, uppger OpenAI. Framöver ska därför ChatGPT automatiskt dirigera konversationer som tyder på att en användare är i kris till en sådan resonemangsmodell, oavsett vilken modell som var vald från början.

OpenAI betonar att fler säkerhetsfunktioner är att vänta. ”Detta arbete har redan pågått, men vi vill proaktivt förhandsvisa våra planer för de kommande 120 dagarna, så att du inte behöver vänta på lanseringar för att se vart vi är på väg”, skriver företaget. ”Arbetet kommer fortsätta långt bortom denna tidsperiod, men vi gör en fokuserad satsning på att lansera så många av dessa förbättringar som möjligt redan i år.”

Källa:
Engadget

Forskare varnar: AI används som terapeut och rådgivare

Forskare varnar: AI används som terapeut och rådgivare

blank

I augusti 2025 blev tusentals ChatGPT-konversationer plötsligt synliga på nätet. Det visade sig snabbt att det inte handlade om ett dataintrång, utan om en funktion som gjort det möjligt för användare att av misstag publicera sina samtal som öppna webbsidor.

En granskning av forskare på SafetyDetective, som analyserat 1 000 av de läckta chattarna med sammanlagt över 43 miljoner ord, visar hur människor delar långt mer än vardagliga frågor med AI. Här finns fullständiga namn, adresser, telefonnummer och kompletta cv:n – men också samtal om psykisk ohälsa, missbruk, familjerelationer och diskriminering.

Materialet

Nästan 60 procent av materialet kan beskrivas som professionella konsultationer. Användare ber om juridisk rådgivning, pedagogiska råd eller stöd i svåra livssituationer, som om AI:n vore en advokat, lärare eller terapeut. Enstaka konversationer är mycket omfattande; en av dem omfattade över 116 000 ord, motsvarande två dygns oavbrutet skrivande i normal takt.

Studien pekar ut två huvudsakliga problem. Dels förstod många inte att funktionen ”upptäckbara chattar” innebar att deras samtal kunde indexeras av sökmotorer. Dels var utformningen så otydlig att privat information lätt hamnade offentligt. Forskarna varnar också för att ChatGPT ibland speglar användarens känslor i stället för att lugna ned dem – i ett fall förstärktes en diskussion om beroendeproblematik.

 

blank

 

Kännbara

Konsekvenserna är kännbara. När privata detaljer ligger öppet kan de användas för identitetsstöld, bedrägerier eller trakasserier. Även utan direkta personuppgifter riskerar känsliga bekännelser att utnyttjas.

Forskarna rekommenderar tydligare varningar, mer genomtänkta delningsfunktioner och tekniska filter som automatiskt döljer personuppgifter. Men de konstaterar också att mycket handlar om beteende. Många användare ser fortfarande AI som en förtrolig samtalspartner – trots riskerna som uppstår när samtalen hamnar i det öppna.

Källa:
Hackread

Från kodslavar till kreatörer: så förändrar AI utvecklaryrket

Från kodslavar till kreatörer: så förändrar AI utvecklaryrket

blank

Mycket av fokuset när det gäller AI och kodande, utvecklande av appar och program har legat på att nu ska vem som helst kunna skapa sina egna lösningar. Vem som helst ska kunna koda har det sagts. Nu är det inte riktigt där revolutionen kommer, för den kommer och inom en mycket nära framtiden så kommer det vi har i våra mobila enheter och datorer att utvecklas på ett helt annat sätt.

Kodande är en kreativ process men det är också en process som till stora delar, i vart fall inledningsvis av ett projekt innebär ett mindre kreativ skapande av bärande delar av ett program. Alla program behöver en meny, en start, dialogrutor och så vidare. Allt det kan beskriva som ett grundkodande; du måste skapa en grund, en ram för att komma vidare.

Traditionellt så har detta kodande landat i knät på nya, unga nyutexaminerade utvecklare. Är du nyanställd så är det här du startar. Ditt bidrag till den nya lösningen, ett program eller en app är att skapa ramen och sedan tar mer erfarna programmerare över resten. Enkelt uttryckt så är det på ett ungefär så det ser ut i branschen.

Inom spelindustrin talas det ibland om ”kodslavar”, unga, nya programmerare som får skriva koden som håller ihop spelet.

Den här delen är viktig därför att det är genom att skriva grunderna som du skaffar dig erfarenhet.

Erfarenheten

Så då infaller sig frågan – hur ska unga programmerare skaffa sig den nödvändiga erfarenheten om de uppgifterna tas över av AI-lösningar?

Branschen inser naturligtvis problemet och den fälla som AI skapar men verkligheten är också sådan att AI inte kräver semester, inte behöver vara barnledig, aldrig blir sjuk och kräver inte högre lön.

Lägg sedan till att mindre krävande uppgifter, mindre krävande program och appar inte kommer att behöva en utvecklare överhuvudtaget. Där kommer du och jag med stöd av AI att kunna skapa de mindre avancerade funktionerna som vi vill ha och behöver.

När våra egna utvecklare var upptagna med annat så hade jag en lista på 4-5 funktioner som efterfrågats. Istället för att sitta vänta tills vi fick loss utvecklare så byggde jag alla scripten och programmen med Loveable.ai, ChatGPT och Claude. Tre AI-lösningar.

Nu är jag inte nybörjare inom området men mina programmeringskunskaper har legat i träda, länge, och alla som programmerat eller jobbat med den här typen av uppgifter vet att du lägger av dig ganska snabbt. Till dags dato så har jag på kort tid, i stort sett under sommaren, byggt drygt ett tjugotal, script, plugins och funktioner.

Xcode

I den senaste betaversionen av Apples utvecklingsverktyg Xcode finns inbyggt stöd för ChatGPT och Claude. Du kan även lägga till egna, lokala AI-lösningar.

Du, som utvecklare, har då AI, direkt tillgängligt, inbyggt i verktyget och Apple och Xcode är inte ensamma. Ingen av de stora saknar idag AI-stöd – och med de stora menar jag utvecklingsverktyg.

Så visst kommer alla kunna blir programmerare men den stora revolutionen kommer för de som redan är programmerare och utvecklare.

AI ger fördelen att du ganska snabbt kan kasta dig över de kreativa delarna, grundkoden skrivs av AI men medaljen har en baksida – det kommer inte att behövas lika många programmerare inom en mycket nära framtid.

Samma utveckling

Det är samma utveckling som vi ser bland ekonomer, revisorer, analytiker, journalister, grafiker, illustratörer och inom en lång rad intellektuella yrken som det länge sades skulle vara förskonade från konkurrens från datorer.

AI skulle inte kunna konkurrera med kreativa yrken hette det och för bara några år sedan så var rådet – lär dig koda. Det sades också att AI inte skulle kunna göra komplexa, djupa analyser. Idag vet vi att ingenting av det stämmer.

Det är den verkligt stora revolutionen.

Upphovsrättsstriden mot Anthropic kan bli vägledande för hela AI-branschen

Upphovsrättsstriden mot Anthropic kan bli vägledande för hela AI-branschen

blank

Författare i USA firar vad de beskriver som en historisk uppgörelse i den stora grupptalan mot AI-bolaget Anthropic. Enligt domstolsdokument har parterna nått en preliminär överenskommelse som väntas presenteras senast den 5 september.

Uppgörelsen kommer kort efter att domaren William Alsup godkänt att miljontals författare kan omfattas av stämningen, något som branschföreträdare kallat den största upphovsrättsliga grupptalan någonsin. Stämningen inleddes av tre författare – Andrea Bartz, Kirk Wallace Johnson och Charles Graeber – men domstolen bedömde att upp till sju miljoner författare kan ha fått sina böcker olagligt nedladdade och använda i Anthropic:s AI-träning.

Branschen har varnat för att ett fullt ut genomfört skadeståndsansvar kunde slå ut hela AI-sektorn ekonomiskt. Wired har tidigare uppskattat att skadestånden potentiellt kunde överstiga 1 000 miljarder dollar.

Seger

Ännu är detaljerna om uppgörelsen inte kända, men författarnas advokat Justin A. Nelson beskriver den som en seger för miljontals drabbade. Han bekräftar att avtalet är bindande och att mer information offentliggörs de kommande veckorna.

Anthropic, som grundades 2021 av tidigare OpenAI-anställda, har tidigare hävdat att en dom till författarnas fördel skulle hota företagets existens. Domare Alsup har tidigare bedömt att bolagets användning av författares verk var förenlig med principen om ”fair use”. Därför väntas inte uppgörelsen ge några klara svar i de större upphovsrättsfrågor som just nu omgärdar AI-industrin.

Enligt experter kan beslutet att förlika sig bero på att bolaget stod inför rättegång inom fyra månader, med risk för skadeståndsansvar i så kallade ”domedagsbelopp”. Edward Lee, professor i juridik vid Santa Clara University, beskriver beslutet som en dramatisk vändning efter att Anthropic kämpat hårt i två olika domstolar och nyligen tagit in ett nytt rättegångsteam.

Källa:
Ars Technica