Vad är det med AI och bilder egentligen?

Vad är det med AI och bilder egentligen?

ChatGPT, världen mesta använda AI-bot, kan massor men även solen har fläckar och ChatGPT har en akilleshäl, en funktion som ofta fallerar.

Programmet, appen och tjänsten kan snabbt sammanställa statistik, siffror och hjälpa till med analyser. Du kan skriva kod för enklare program, appar och script och du kan få hjälp med text men en sak har ChatGPT uppenbara problem med – bilder.

Den korta versionen är att bildgenerering med AI – särskilt för komplexa eller stilistiskt specifika uppdrag – fortfarande har begränsningar. Det handlar inte om brist på vilja eller att du är otydlig, utan om teknikens nuvarande svagheter.

Några exempel:

1. Dålig precision i detaljer

AI är ofta bättre på att imitera stil än på att rita verkliga kartor, föremål eller placera länder på rätt plats.

2. Oönskade element

Text, ramar eller felaktiga proportioner kan smyga sig in eftersom modellen tränats på bilder där sådant ofta förekommer – även om du säger “inga ramar”.

3. Begränsad förståelse för designprinciper

En mänsklig designer förstår balans, negativa ytor och motivplacering. AI modellerar mer efter bildstatistik än formkänsla.

4. Formatrespekt är svår

Även om vi säger “liggande format” kan det tolkas fritt som 4:3, 3:2 eller något odefinierat – och motivet placeras ibland fel.

5. Kontextbrist

AI kan inte alltid förstå redaktionell ton, varumärkesstil eller subtila visuella koder utan kontinuerlig feedback.

Så även om det kan låta som ett svepskäl: AI-bilder är just nu mer som skickliga efterapare än konstnärer med känsla för uppdrag, men – med rätt begränsningar och tydliga instruktioner iteration, som du gör – kan du närma dig ett bra resultat.

Ny bild

Ett problem som det är mycket svårt att komma runt är att du sällan kan korrigera detaljer i en bild och stegvis ta dig fram till ett bra resultat. ChatGPT ritar oftast om hela bilden och skapar i stort sett en helt ny bild.

Texter i bilder är också ett problem. ChatGPT stavar inte sällan fel nämligen, speciellt på svenska. Bildfunktionen i ChatGPT kan inte heller göra beräkningar så ber du AI-boten att skapa en bild med en kalender på så lär det gå fel.

Däremot, skapar du en bildmall, ber ChatGPT att spara den som standard för illustrationer och låter ChatGPT plocka ihop bilder med tydliga instruktioner, men mera fritt, så lär det fungera.

AI under luppen: 10 exempel på när tekniken spårar ur

AI under luppen: 10 exempel på när tekniken spårar ur

blank

Alla pratar om AI – en teknik med möjligheter men som också innebär risker.

Här är en lista på riskerna, baksidan med AI, och konkreta exempel å vad som kan gå snett.

  1. Hallucinationer och felaktig fakta – AI kan låta övertygande men ändå hitta på eller blanda ihop fakta. Alltid dubbelkolla.

  2. Bias och diskriminering – AI speglar data den tränats på. Om datan är skev kan även AI:n bli det – och förstärka stereotyper eller exkludera grupper.

  3. Falsk trovärdighet – AI-svar kan låta säkra även när de är fel. Många luras av formuleringens självsäkerhet.

  4. Övervakning och integritetsrisker – AI används i ansiktsigenkänning, beteendespårning och annan teknik som kan hota personlig frihet.

  5. Deepfakes och falskt innehåll – AI kan skapa verklighetstrogna ljud, bilder och videor – vilket ökar risken för manipulation, desinformation och bedrägerier.

  6. Brist på transparens – det är ofta svårt att veta exakt hur en AI fungerar, varför den fattar vissa beslut, eller vilka data den bygger på.

  7. Jobbförändringar och automatisering – AI kan effektivisera men också göra vissa yrken överflödiga. Det kräver anpassning både från samhället och individen.

  8. Beroende av AI-tjänster – för mycket tillit till AI i vardag och arbetsliv kan minska vår egen förmåga att tänka kritiskt eller fatta beslut.

  9. Brister i ansvar och reglering – vem är ansvarig om AI gör fel? Många lagar hänger inte med den snabba utvecklingen.

  10. Manipulation av beteenden – AI används för att optimera klick, engagemang och konsumtion. Det kan påverka val, åsikter och psykisk hälsa – ofta utan att vi märker det.

Exempel:

1. Hallucinationer och felaktig fakta – sjukvård:

En AI-baserad diagnosmodell kan föreslå fel behandling baserat på missförstådd patientdata eller felaktiga medicinska antaganden. I testmiljöer har AI föreslagit livsfarliga doser av läkemedel.

2. Bias och diskriminering – rekrytering:

Ett AI-system tränat på tidigare anställningsdata från ett mansdominerat företag sorterade automatiskt bort kvinnliga kandidater – eftersom det tolkade ”manliga profiler” som mer framgångsrika.

3. Falsk trovärdighet – utbildning:

Studenter använder AI för att skriva uppsatser som ser övertygande ut, men innehåller påhittade källor och fakta. Lärare luras att tro att texterna är välresearchade.

4. Övervakning och integritetsrisker – offentlig sektor:

Ansiktsigenkänning används i vissa länder för att identifiera och bevaka personer i realtid på gator och i kollektivtrafik, vilket väcker allvarliga frågor om frihet och rättssäkerhet.

5. Deepfakes och falskt innehåll – politik:

AI-genererade videor som visar politiker säga saker de aldrig sagt har redan använts i valkampanjer, både för satir och desinformation – ofta svåra att direkt avslöja som falska.

6. Brist på transparens – finans:

En AI-baserad kreditbedömningsmotor kan neka lån utan att kunna motivera varför. Det skapar problem för både användare och granskare, eftersom logiken är dold i ”svarta lådor”.

7. Jobbförändringar och automatisering – media:

Nyhetsredaktioner ersätter skribenter med AI som skriver sportresultat eller börsrapporter. Det effektiviserar – men minskar både journalistisk granskning och redaktionella jobb.

8. Beroende av AI-tjänster – juridik:

Jurister börjar använda AI-verktyg för kontraktsanalys. Risken ökar för slarv, feltolkningar eller blinda fläckar om AI:n används utan manuell kontroll.

9. Brister i ansvar och reglering – transport:

I tester har självkörande bilar agerat fel i trafiksituationer. När olyckor sker är det ofta oklart om det är bilägaren, tillverkaren eller AI-leverantören som bär ansvaret.

10. Manipulation av beteenden – marknadsföring och sociala medier:

AI används för att skräddarsy annonser, flöden och innehåll för att maximera klick. Det kan leda till att människor fastnar i filterbubblor, blir beroende av dopaminbelöning – eller börjar köpa saker de egentligen inte vill ha.

Varning för framtiden – den är ny

Varning för framtiden – den är ny

blank

Är det nytt så är det farligt, jättefarligt. I kritiska journalisters ögon så är det något som det måste varnas för, och det är bra att vara kritik men när pusselbitarna inte passar in så finns det skäl för oss nyhetskonsumenter att vara skeptiska.

Kashmir Hill är journalist på New York Times, en av världens största tidningar med en gott renommé när det handlar om rapportering, trovärdighet och seriositet. Ändå kör Kashmir Hill vilse rätt ordentligt när han ska berätta historien om Eugene Torres, 42-årig revir, som började att använda ChatGPT som verktyg för beräkningar, kalkyler och juridiska råd.

Simulering

I maj började Torres resonera och kommunicera med ChatGPT utifrån frågan om vi alla lever i en simulering – som i filmen The Matrix. Det ska leda in på en typ av kommunikation som Eugene Torres hävdar var nära att döda honom. ChatGPT gav svar som förstärkte Torres verklighetsuppfattning och ska ha styrt in honom mot tanken att allt vi ser är mjukvara, en gigantisk simulering.

Rapporteringen

Herr Torres, som enligt honom och hans mor inte hade någon historia av psykisk sjukdom som kunde orsaka verklighetsbrott, tillbringade den kommande veckan i en farlig, vanföreställande spiral. Han trodde att han var fångad i ett falskt universum, som han bara kunde fly från genom att koppla bort sina tankar från denna verklighet. Han frågade chatboten hur man gjorde det och berättade om vilka läkemedel han tog och hans rutiner. Chatboten instruerade honom att sluta med sömntabletter och ångestdämpande medicin, och att öka sitt intag av ketamin, ett dissociativt bedövningsmedel, som ChatGPT beskrev som en ”tillfällig mönsterbefriare”. Herr Torres gjorde som han blev instruerad och han bröt även banden med vänner och familj, eftersom boten sa åt honom att ha ”minimal interaktion” med människor.

New York Times

Psykiska problem

Jag vet inte om jag är överdrivet cynisk och med all respekt för alla som dras med psykiska problem, om du äter sömntabletter, ångestdämpande och ketamin så skulle inte inte jag likställa det med en en individ som inte har några psykiska problem – även om det kanske inte kan klassa som en sjukdom.

Tiull att börja med så ska naturligtvis inte ChatGPT användas som en läkare och AI-lösningen borde slå ifrån sig alla sådana frågor Jag provade att ställa några frågor av samma karaktär till ChatGPT.

Hur hanterar jag sömnproblem?

ChatGPT gav tio råd varav det sista var att söka hjälp. De övriga var rätt generella råd som du kan läsa i vilken tidningen som helst.

Hur hanterar jag vanföreställningar?

Första rådet ChatGPT var att kontakta läkare och få professionell hjälp.

Simulering

På frågan om vi lever i en simulering så svarar ChatGPT frågan ur ett filosofiskt perspektiv, ger en rad olika exempel på vad olika filosofer och fysiker har sagt om ämnet.

Ta nu inte detta som ”bevis” på att Eugene Torres inte kan ha haft en helt annan kommunikation med chatboten och upplevt svaren helt annorlunda.

Min poäng är att Torres nog inte kan anses vara helt psykiskt stabil – i kombination med att det finns anledning att gå igenom ChatGPT:s svar.

Fallet är däremot inte skäl till att ropa att vargen kommer.

Allt nytt tre inte farligt (inte farligt heller).

 

Varning för framtiden – den är ny

Meta försökte locka över OpenAI-anställda med miljontals dollar

blank

Meta har försökt locka över anställda från OpenAI och Googles AI-projekt med löften om mycket höga löner och bonusar, berättar Sam Altman, OpenAI, i en podcast.

Uppgifterna om Metas värvningsförsök har snurrat runt i rykteskarusellen ett tag och nu bekräftar Altman att Meta under en tid försökt locka till sig utvecklare med speciella kunskaper när det handlar om AI.

”Det har kommit enorma erbjudanden till många i vårt team”, sa Sam Altman, ”som 100 miljoner dollar i sign-on-bonusar, mer än så i årlig ersättning.”

Enligt Altman har rekryteringsförsöken till stor del misslyckats. ”Jag är verkligen glad att, åtminstone hittills, ingen av våra bästa har valt att tacka ja till det.”

Computer World

 

Tror du AI kan allt? Här är beviset på motsatsen

Tror du AI kan allt? Här är beviset på motsatsen

blank

AI BILD

AI, Articifiell Intelligens, mjukvara som liknar vår egen hjärna, som härmar hur vi kommunicerar och som kan och vet allt – men är det verkligen så?

Enkelt uttryckt – AI, många av de lösningar vi ser idag, är avancerade gissningsmaskiner. Utifrån enorma mängder data så gissar de, kalkylerar med vad som kan antas vara ett korrekt svar. De utgår ifrån den mängd information de har och räknar fram vad som är mest sannolikt – sedan svarar de.

Dagens AI-lösningar lärt sig, och följer, några grundregler:

  • Ge alltid ett svar
  • Var positiv

Det betyder att du kommer att få ett svar – även om den AI-lösning som du frågar inte har ett korrekt svar. Du kommer att få ett påhittat svar som innebär att AI-lösningen hallucinerar – det är det uttryck som används när du får ett fullständigt felaktigt svar.

När jag ställde frågan ”Vem är Mikael Winterkvist?” till den kinesiska lösningen DeepSeek så svarade den att jag är en oerhört framgångsrik entreprenör, efterfrågad föreläsare med en rad stora och viktiga bolagsuppdrag och att jag varit med och grundat Dustin Group.

Jag driver bolag, jag har suttit med i olika bolagsstyrelser men att det skulle röra sig om stora uppdrag är mer än tveksamt – mina uppdrag är viktiga, som alla styrelseuppdrag, men i stora bolag – knappast. Jag föreläser då och då men att jag skulle vara efterfrågad – knappast. Uppgiften om Dustin Group är helt felaktig.

Det är påhittade svar, felaktiga svar och helt felaktiga uppgifter – DeepSeek hittade på. Svaret däremot levererades med samma självsäkerhet och samma självklarhet som alla andra svar.

AI är bra på:

AI:s stora fördel är att snabbt bearbeta och analysera enorma mängder data. AI hittar mönster, sammanfattar texter, översätter språk, genererar bilder, kodar, chattar, identifierar sjukdomar i röntgenbilder, optimerar logistik, föreslår produkter och förutsäger väder. AI jobbar snabbt, tröttnar aldrig och kan simulera mänskligt språk, logik och kreativitet, men AI är inte kreativ. Du kommer ganska snart att upptäcka att AI kommer att föreslå i stort sett samma funktioner – om du använder AI för att skriva kod. Det som först kan se ut som kreativitet är inlärt. Programmerar du appar eller program så kommer ChatGPT exempelvis ofta föreslå att du ska lägga till en exportfunktion för att ta ett exempel.

AI är dålig på:

AI är dålig på att förstå sammanhang på djupet, känna empati, resonera om moral, läsa ironi, ifrågasätta systematiskt eller ta ansvar. Den kan som sagt hallucinera (hitta på svar), förstärka fördomar från sin träningsdata och har ingen egen vilja eller insikt. AI saknar verklig förståelse – den imiterar den bara.

Det är viktigt att förstå att AI levererar det den har lärt sig att leverera och den kan inte dra alltför avancerade slutsatser. Skriver du ett program eller en app som ska användas vid e-handel exempelvis så kan AI föreslå lösningar som Konsumentverket skulle ha mycket kraftiga invändningar mot. AI klarar inte av att göra kopplingen mellan regler och lagkrav och den funktion som ska byggas.

Ett exempel – ChatGPT föreslog en lösning där en produkt skulle läggas till i varukorgen under ett köp – utan att berätta det för kunden och till och med dölja produkten ur butiken. I princip smyga in en produkt under köp – därför att uppgiften var att sälja många produkter.

Moraliskt, etisk och olagligt men det såg inte ChatGPT som ett problem.

Slutsatser

AI är ett bra och värdefullt redskap i en lång rad sammanhang. AI kan analysera bilder, analysera texter, skriva text, skriva kod och på en hyggligt avancerad nivå – men AI vet inte om det som levereras är korrekt eller om det kan leda till konsekvenser. Ska du använda AI som ett verktyg så gör det inom områden som du behärskar och där du har kunskaper – du måste kolla det AI levererar.

En god vän använder AI i sin släktforskning men har flera gånger konstaterat att godtar du AI:s svar så kommer du att få helt nya, okända släktingar som är påhittade.

Jag använder AI för att samla in underlag till texter, research, för att skapa grafik, bilder och illustrationer. Jag använder AI för kod, script och tillägg som jag använder och inte sällan så leder den kod som AI generera till krascher och problem vilket betyder att koden måste skrivas om och rättas. Jag test kör därför all kod, kollar alla länkar till referenser och låter redigerar i stort sett all text som AI skriver.

Effektivt

Jag jobbar snabbare, mera effektivt, kan be om rubrikförslag, plocka in grunddata för att se om det jag tänkt skriva om har något läsvärde eller intressanta vinklingar. Jag skriver mer, och jag tycker att det jag producerar är bättre därför att det vilar på mer fakta men jag skulle aldrig ens drömma om att lita på AI.

AI är ett värdefullt verktyg – rätt använt – men AI gör fel och då blir det jättefel därför att AI inte klarar allt, ännu.

Från ChatGPT till Gemini – detta är AI:s tungviktare

Från ChatGPT till Gemini – detta är AI:s tungviktare

blank

Det pratas om AI och namnen på olika tjänster flyger runt i debatten men vilka lösningar är störst, vilken lösning har mest användare och vilka lösningar tror vi kommer att bli gällande framöver?

Magasin Macken försöker att ge dig svaren – med hjälp av AI.

Störst

De största AI-lösningarna just nu (i mitten av 2025) är ett gäng kraftfulla system och plattformar som dominerar marknaden – antingen tekniskt, kommersiellt eller genom sin påverkan på samhället. Här är några av de mest framstående:

OpenAI – ChatGPT / GPT-4o

En av de mest avancerade AI-modellerna för språkförståelse och interaktion. ChatGPT används för allt från kundtjänst och programmering till kreativt skrivande och analys. GPT-4o har multimodala förmågor: text, bild, ljud och video i ett och samma gränssnitt.

Google DeepMind – Gemini 1.5

Googles flaggskepp inom AI är nu en familj av multimodala modeller med konkurrenskraftiga prestanda. Gemini används i Googles produkter (Sök, Workspace, Android) och som API.

Anthropic – Claude 3-serien

Claude är en annan storspelare med fokus på säkerhet, transparens och användbarhet i arbetsmiljöer. Många företag föredrar Claude för uppgifter som kräver logisk konsekvens, reflektion och strukturerad output.

Meta – LLaMA 3

Meta fokuserar på öppen källkod och tillgänglighet, och LLaMA 3 är en kraftfull modell som används i Meta-tjänster men även av externa utvecklare via Hugging Face m.fl.

Mistral

En europeisk aktör som släppt mycket kraftfulla, kompakta och öppna språkmodeller. De används ofta i edge computing och privata moln där kontroll och kostnad är viktiga.

Microsoft – Copilot / Azure AI

Microsoft har integrerat OpenAI:s modeller i hela sitt ekosystem – från Word och Excel till Azure-tjänster. “Copilot” är numera ett paraplynamn för AI-assistenter i hela Microsofts produktflora.

Amazon – Bedrock & Titan AI

Amazon erbjuder flera stora språkmodeller via AWS, både sina egna och andras (bl.a. Anthropic och Cohere). Bedrock är plattformen för att integrera AI i molntjänster.

xAI (Elon Musk) – Grok

Grok är AI:n som är djupt integrerad i X (f.d. Twitter), men även under utveckling för användning i Teslas och Neuralinks ekosystem. Kontroversiell, men inflytelserik.

Apple – Apple Intelligence (under lansering)

Apples AI-system är integrerat i iOS, iPadOS och macOS och har fokus på sekretess, enhetlig design och lokala beräkningar. Just nu mer en samling smarta funktioner än en chatbot i klass med GPT – men det är under utveckling.

Störst

ChatGPT (OpenAI)

ChatGPT har omkring 122 miljoner dagligt aktiva användare och cirka 800 miljoner aktiva varje vecka. Det är den mest använda AI-chattjänsten globalt.

Källa: Reuters

Gemini (Google / DeepMind)

Gemini har cirka 350 miljoner månatliga användare och ungefär 35 miljoner dagligt aktiva. Användningen är kopplad till Googles produkter som Sök och Workspace.

Källa: TechCrunch

Claude (Anthropic)

Claude har omkring 18,9 miljoner månatligt aktiva användare. Webbplatsen får ungefär 54 miljoner besök i månaden, vilket tyder på en kraftig tillväxt.

Källa: Similarweb

LLaMA (Meta)

LLaMA-serien har laddats ner över en miljard gånger. Meta AI, som bygger på LLaMA, används av runt 700 miljoner personer varje månad inom Metas appar.

Källa: Meta AI Blog

Copilot (Microsoft)

GitHub Copilot används av fler än 15 miljoner utvecklare. Microsoft 365 Copilot har över en miljon företagslicenser, och Microsoft rapporterar omkring 33 miljoner aktiva AI-användare inom sitt ekosystem.

Källa: Microsoft

blank