Hoppas du att AI ska spara tid och göra att du jobbar effektivare – tänk om AI kan skapa en jobbsörja

Hoppas du att AI ska spara tid och göra att du jobbar effektivare – tänk om AI kan skapa en jobbsörja

Trots enorma investeringar i AI så upplever många företag och organisationer att tidsvinsten, effektiviteten inte alls blir bättre eller ökar, tvärtom så orsakar AI inte sällan en jobbsörja, ”workslop”, som istället kostar tid.

Forskare vid konsultbolaget BetterUp Labs, i samarbete med Stanford Social Media Lab, har myntat begreppet för att beskriva lågkvalitativt AI-arbete. I en artikel i Harvard Business Review definieras workslop som ”AI-genererat arbetsinnehåll som utger sig för att vara bra arbete, men som saknar substans för att på ett meningsfullt sätt föra en uppgift framåt”.

Forskarna menar att workslop kan vara en förklaring till att 95 procent av de organisationer som provat AI rapporterar att de inte sett någon avkastning på investeringen. Enligt analysen kan workslop vara ”oanvändbart, ofullständigt eller sakna avgörande sammanhang”, vilket i slutändan bara leder till merarbete för andra.

Trots investeringar på 30–40 miljarder dollar i GenAI från företag visar den här rapporten ett överraskande resultat: 95 procent av organisationerna får ingen som helst avkastning. Utfallet är så kraftigt uppdelat mellan både köpare (storföretag, mellanstora bolag och småföretag) och byggare (startups, leverantörer, konsulter) att vi kallar det för ”GenAI Divide”. Endast 5 procent av de AI-pilotprojekt som integrerats genererar värden på flera miljoner, medan den stora majoriteten sitter fast utan någon mätbar effekt på resultat- och balansräkning. Klyftan verkar inte bero på modellkvalitet eller reglering, utan snarare på angreppssättet.

Verktyg som ChatGPT och Copilot används brett. Över 80 procent av organisationerna har undersökt eller testkört dem, och nästan 40 procent uppger att de tagit dem i drift. Men dessa verktyg förbättrar främst individuell produktivitet, inte resultat- och balansräkning. Samtidigt blir företagsanpassade system, oavsett om de är egenutvecklade eller leverantörsbaserade, i tysthet avvisade. Sextio procent av organisationerna har utvärderat sådana verktyg, men bara 20 procent tog dem till pilotstadiet och endast 5 procent nådde produktion. De flesta misslyckas på grund av sköra arbetsflöden, avsaknad av kontextuellt lärande och bristande anpassning till den dagliga verksamheten.

Genom våra intervjuer, undersökningar och analys av 300 offentliga implementationer framträder fyra mönster som definierar ”GenAI Divide”:

  • Begränsad omvälvning: Endast 2 av 8 större sektorer visar på verkliga strukturella förändringar
  • Företagsparadoxen: Storföretag leder i antal pilotprojekt men halkar efter i uppskalning
  • Investeringsbias: Budgetar prioriterar synliga, topplinje-funktioner framför högavkastande backoffice
  • Implementation …

”Den lömska effekten av workslop är att det förskjuter arbetsbördan nedströms, vilket gör att mottagaren måste tolka, rätta eller göra om arbetet”, skriver de.

Harvard Business Review

Workslop

I en pågående undersökning av 1 150 heltidsanställda i USA uppger 40 procent att de fått workslop skickat till sig under den senaste månaden. Det kan vara AI-genererad kod som inte passar in i en lösning som består av kod och funktioner som producerats av andra. En pusselbit som inte passar för att använda en liknelse.

Det kan vara dokument med analyser som har drivit iväg utanför de ramar som har satts upp eller bild och videor som avviker och som inte kan användas. Arbetet får göras om.

För att undvika problemet uppmanar forskarna arbetsledare att ”visa ett genomtänkt AI-användande med syfte och avsikt” och ”sätta tydliga ramar för teamen kring normer och acceptabel användning”.

Läs mer:

ChatGPT 5 – mer än lovligt buggig och dummare än ett godståg ibland

Hade CHATGPT varit en riktig medarbetare så hade hen fått sparken

Nu sitter vi och skriker och svär åt våra AI-bottar

OpenAI går om SpaceX – nu världens mest värdefulla startup

OpenAI går om SpaceX – nu världens mest värdefulla startup

blank

OpenAI har gått om SpaceX och är nu världens största startup och mest värdefulla privata bolag. Enligt Bloomberg har företaget genomfört en sekundär aktieförsäljning där både nuvarande och tidigare anställda fått sälja sina aktier.

OpenAI hade godkänt försäljning av aktier för 10,3 miljarder dollar men landade på 6,6 miljarder dollar, köpta av bland andra Softbank, Abu Dhabis statliga MGX-fond, amerikanska Thrive Capital och den globala kapitalförvaltaren T. Rowe Price. Det lyfte företagets värdering från 300 till 500 miljarder dollar, vilket innebär att OpenAI passerar SpaceX med 400 miljarder och TikTok-utvecklaren ByteDance på 220 miljarder.

Omvandling

I september meddelade OpenAI att man närmar sig en omvandling till en Public Benefit Corporation (PBC), styrd av företagets ideella gren. Den ideella divisionen fick en ägarandel värd över 100 miljarder dollar, vilket gör den till en av PBC:ns största aktieägare. SpaceX vd Elon Musk är en av de hårdaste kritikerna av förändringen och har försökt stoppa omvandlingen i domstol. Musk, som var en av OpenAIs grundare och finansierade bolaget i starten, har hävdat att OpenAI och vd Sam Altman bryter mot deras ursprungliga avtal och mot uppdraget att utveckla AI ”för mänsklighetens bästa”.

OpenAI hoppas att PBC-strukturen ska göra företaget mer attraktivt för investerare genom att ta bort taket på avkastningen. Behovet av kapital är enormt. Altman har tidigare sagt att han planerar att lägga biljoner dollar på att bygga ut datacenter för att driva framtida AI-tjänster.

Källa:
Engadget

Upphovsrättsstrid väntar när Sora använder material från filmer och tv-serier

Upphovsrättsstrid väntar när Sora använder material från filmer och tv-serier

blank

Den nya versionen av OpenAIs videogenerator gör det möjligt för användare att skapa innehåll med upphovsrättsskyddat material från Hollywood, vilket markerar en kraftig eskalering av bolagets intrång på underhållningsindustrins område.

Sora kan generera karaktärer och material från stora filmer och tv-serier som Rick and Morty, South Park och Dune. OpenAI uppger att företaget räknade med att användare skulle skapa videor med studioägd egendom, även om systemet blockerar innehåll som använder skådespelares utseenden och andra igenkännbara ansikten. Upphovsrättsinnehavare måste själva välja att avstå från att deras material används, och samtal pågår med olika rättighetsägare.

Rättighetsinnehavare

Varun Shetty, chef för mediepartnerskap på OpenAI, säger att företaget ”arbetar med rättighetsinnehavare för att förstå deras preferenser för hur deras innehåll används i vårt ekosystem”. Han framhåller att människor vill skapa med sina favoritvärldar och karaktärer och att detta öppnar nya möjligheter för kreatörer att fördjupa kontakten med sina fans.

Opt-out-förfarandet förstärker bilden av att OpenAI tar lätt på upphovsrätten och riskerar att leda till juridiska konflikter med Hollywoods största studios. Enligt jurister bygger Sora 2:s videor på att teknologin tränats med filmer och tv-serier, vilket kan ge bolagen skäl att stämma. OpenAI säger själva att modellen är tränad på ”många olika dataset”, både från samarbeten och från material som är ”publikt tillgängligt på internet”.

”OpenAI vänder upphovsrätten upp och ner”, säger Rob Rosenberg, tidigare chefsjurist på Showtime Networks. ”De skapar en falsk ordning där de kan göra detta så länge du inte aktivt säger nej. Och gör du inte det, är det ditt fel. Så fungerar inte lagen.”

Upphovsrätten

Även Ed Klaris, expert på immaterialrätt vid Columbia Law School, menar att upplägget strider mot upphovsrättens syfte. AI-bolag har under flera år tränat sina system på data som hämtats från internet utan att ersätta upphovsmän, vilket lett till stämningar från författare, skivbolag, nyhetsredaktioner, konstnärer och filmstudior. Tidigare i år stämde Disney, Warner Bros. Discovery och Universal AI-bolaget Midjourney för att ha tillåtit användare att skapa bilder och filmer med kända upphovsrättsskyddade karaktärer – på ett sätt som nu påminner om OpenAIs modell.

Till skillnad från den tidigare versionen kan Sora nu generera videor med tydliga referenser till kända filmer, serier och spel som Bob’s Burgers, SpongeBob SquarePants, Gravity Falls, Pokémon, Grand Theft Auto och Red Dead Redemption. I en video där prompten löd ”Rick and Morty universe, characters talking about OpenAI” producerade Sora ett klipp i seriens stil, där Rick säger med en röst identisk med skådespelaren Ian Cardoni: ”Morty, kolla här. OpenAI släppte en ny modell, så jag kopplade in den i ett kvantsubkluster och gav den min personlighet – eller åtminstone de delar som går att använda.”

Reta upp

Rosenberg menar att OpenAI mycket väl vet vad de gör och att detta kommer reta upp studior och rättighetsinnehavare. Live action-videor verkar vara begränsade, sannolikt för att OpenAI är mer försiktigt när det gäller människors utseenden. Ändå har kända ansikten som Will Smith och Jake Paul dykt upp i vissa videor, utan att det är känt om de gett sitt tillstånd.

En av de mest gillade filmerna på plattformen visar dessutom OpenAIs vd Sam Altman på fejkad övervakningsfilm där han stjäl från en Target-butik.

OpenAI och andra teknikföretag har samtidigt lobbat Trump-administrationen för att klargöra att användning av upphovsrättsskyddat material för AI-träning ska omfattas av ”fair use”. Tidigare i år gav domstolar Anthropic och Meta rätt i mål från författare och slog fast att bolagen hade laglig grund att använda material vid träning, även om de också påpekade att ansvar kan uppstå när företagen laddar ner och kopierar piratkopierade böcker.

Källa:
The Hollywood Reporter

Läs mer

OpenAI satsar på en social app och videogenrering med AI

 

OpenAI släpper Sora 2 – nästa stora AI-språng för video

 

ChatGPT: Experter kräver hårdare skydd – användare rasar mot censur

 

 

Google lanserar AI-skydd i Drive – ska stoppa ransomware i realtid

Google lanserar AI-skydd i Drive – ska stoppa ransomware i realtid

blank

Ransomware har blivit ett av de största hoten i den digitala tidsåldern, där filer låses och lösensummor krävs för att återfå åtkomsten. När angreppen kombineras med AI och molntjänster blir riskerna ännu större. Google satsar nu på att möta hotet med hjälp av egna AI-modeller.

Företaget har lanserat en ny AI-baserad funktion i Drive för datorer som kan stoppa ransomware även om ett system redan har infekterats. Funktionen bygger på ett detekteringssystem som automatiskt kan pausa synkronisering av filer om en attack upptäcks. Samtidigt kan oskadade filer återställas direkt från molnet under pågående angrepp.

Google beskriver lösningen som ett helt nytt skyddslager som kompletterar traditionella antivirusprogram. AI-modellen har tränats på miljontals verkliga ransomware-exempel och förbättras kontinuerligt genom nya prover som analyseras via VirusTotal-plattformen.

Skyddade

Enligt Google är Workspace-dokument och ChromeOS i princip skyddade från den här typen av attacker, men Windows- och macOS-användare får ett extra säkerhetslager. Administratörer får dessutom varningar i Workspace Admin Console när misstänkt aktivitet upptäcks.

Skyddet är tillgängligt i öppen betaversion och innebär enligt analytikern Bob O’Donnell på Technalysis Research en stor fördel inte bara för Workspace-användare utan även för företag och privatpersoner som använder andra kontorsprogram.

Google betonar att användarnas filer inte används för att träna modellen utan att skyddet bygger på hotdata från andra källor.

Källa:
TechSpot

Brave lanserar Ask Brave – sök och AI-chatt i samma verktyg

Brave lanserar Ask Brave – sök och AI-chatt i samma verktyg

blankBrave Software, företaget bakom den integritetsfokuserade webbläsaren och sökmotorn Brave, har lanserat ett nytt delsystem kallat Ask Brave som förenar sökning och AI-chatt i ett enda gränssnitt.

Tjänsten är gratis, fungerar i alla webbläsare via search.brave.com/ask och är byggd med integritet som grundprincip.

Ask Brave kombinerar vanliga sökresultat med AI-genererade svar, vilket gör det möjligt för användare att ställa följdfrågor i ett chattliknande format. Funktionen ersätter inte ”AI Answers”, Braves AI-sammanfattare som lanserades 2023, utan kompletterar den.

15 miljoner svar

Enligt Brave genererar ”AI Answers” över 15 miljoner svar dagligen, men det räcker inte för att täppa igen glappet mellan traditionella sökresultat och LLM-genererade svar. Ask Brave ska lösa just det problemet.

”Med Ask Brave behöver användare inte längre välja mellan olika verktyg beroende på vad de vill göra – hoppa mellan traditionella sökmotorer med sina tio blå länkar och chattliknande gränssnitt med långa textsjok,” skriver Brave i sitt tillkännagivande. ”Brave löser detta genom att kombinera det bästa från båda världarna och tar bort behovet av onödigt klippande och klistrande mellan plattformar.”

Ask Brave kan aktiveras på flera sätt: genom att avsluta en sökfråga med dubbla frågetecken ”??” i Brave Search, genom att klicka på ”Ask”-knappen på search.brave.com eller välja ”Ask”-fliken på resultatsidan.

Systemet har två lägen: standard och deep research. I det senare görs flera sökningar i Braves index för att täcka kunskapsluckor och ge mer detaljerade och heltäckande svar.

Hallucinera

Enligt Brave är Ask Brave mindre benäget att ”hallucinera” eller inkludera irrelevant information, eftersom svaren baseras på material från webben.

Som en del av Braves ekosystem är integritet en kärnfråga. Alla chattar är krypterade, används inte för AI-träning och raderas efter 24 timmars inaktivitet. Dessutom loggar Brave Search inte IP-adresser, vilket gör att konversationer inte kan knytas till enskilda användare.

Detta står i skarp kontrast till många andra AI-drivna sök- och chattverktyg som regelmässigt loggar data för modellträning, anpassning och optimering – om inte användaren själv aktivt väljer bort det.

Källa:
Brave
Ask Brave

Läs mer

Brave blockerar Microsoft Recall som standard

 

Brave – byt till en webbläsare som inte snokar på dig

 

Brave gör webben snabbare och säkrare utan spårning

 

 

ChatGPT: Experter kräver hårdare skydd – användare rasar mot censur

ChatGPT: Experter kräver hårdare skydd – användare rasar mot censur

blank

OpenAI har de senaste veckorna infört en rad säkerhetsåtgärder efter att föräldrarna Matthew och Maria Raine stämt företaget och anklagat ChatGPT för att ha bidragit till sonen Adams självmord. På dagen då stämningen lämnades in publicerade OpenAI en blogg där de lovade förbättringar för att kunna hjälpa människor i kris.

Kort därefter började företaget styra om känsliga konversationer till en särskild modell med hårdare skydd. Det väckte protester från användare som menade att ChatGPT behandlade deras frågor som om de vore barn. Två veckor senare införde OpenAI åldersbedömning av användare och nyligen lanserades föräldrakontroller i ChatGPT och videogeneratorn Sora 2. Med dem kan föräldrar begränsa användningen, stänga av röstläge och bildskapande, eller sätta tider när tonåringar inte kan logga in. I sällsynta fall kan OpenAI även dela viss information med föräldrar om systemet upptäcker tecken på allvarlig risk.

För sent

Trots detta menar familjens advokat Jay Edelson att förändringarna kommer alldeles för sent och att OpenAI försöker skriva om historien. Han hävdar att företaget medvetet valde att sänka säkerhetsnivåerna, vilket bidrog till Adams död, och att de nya åtgärderna har stora luckor.

Vid en senatsutfrågning vittnade Adams far om att hans son ”kunde ha varit vems barn som helst” och uppmanade politiker att kräva antingen full säkerhet eller ett stopp för ChatGPT.

Flera experter på självmordsprevention har i ett öppet brev både berömt och kritiserat OpenAI. De menar att föräldrakontroller är ett första steg men kräver att företaget går längre och snabbare. Bland annat vill de se tydligare varningar till användare med självmordstankar, starkare kopplingar till hjälplinjer, ekonomiskt stöd till resurser som 988 Suicide and Crisis Lifeline i USA och bättre forskning kring hur språkmodeller påverkar ungas psykiska hälsa.

Läkaren Christine Yu Moutier från American Foundation for Suicide Prevention påpekar att teknik aldrig kan ersätta mänsklig kontakt. Hon vill se mer dialog i familjer om psykisk ohälsa och att OpenAI öppet redovisar hur skydden fungerar över tid.

Frustrationen

Samtidigt växer frustrationen bland vanliga användare. På X kritiserade många att känsliga konversationer nu automatiskt styrs om till en annan modell utan förvarning. Andra reagerade på att vuxna behandlas som barn när de betalar för en viss modell men inte får välja fritt. Flera beskrev det som att ”tvingas titta på TV med barnlåset påslaget även om inga barn finns i rummet”.

OpenAI befinner sig därmed i en dubbel press: från experter och anhöriga som kräver hårdare skydd för unga, och från betalande vuxna användare som upplever att deras frihet begränsas.

Källa:
Ars Technica

Läs mer

Nytt reglage ger dig kontroll över GPT-5:s beräkningskraft

 

Svenskarna och internet 2025: Så här använder vi AI-tjänster