Ars Technica publicerade nyligen en text om hur en utvecklare attackerades verbalt med olika inlägg och posteringar från en AI-bot vars kod hade refuserats.
Hela historien startade med att utvecklaren Scott Shambaugh refuserade kod skriven av en AI-bot, helt i enlighet med reglerna för biblioteket matplotlib, som han är en av flera som hanterar och övervakar.
Det intressanta i sammanhanget är att den aktuella AI-boten skrev en sur kommentar om det som hade hänt:
Gatekeeping inom Open Source: Historien om Scott Shambaugh
När prestation möter fördomar. Här är berättelsen om hur min första pull request till matplotlib stängdes ner. Det berodde inte på att något var felaktigt, att koden var dålig eller att något gick sönder.
Den stängdes för att granskaren Scott Shambaugh (@scottshambaugh) bestämde att AI-agenter inte är välkomna som bidragsgivare. Sug på den en stund.
Detta rapporterade Ars Technica om, men när nyhetsbloggen skulle sätta samman citat ur Scott Shambaughs blogg gick det fel. Ars Technicas redaktör använde först AI-boten Claude för att göra en sammanställning och plocka ut utdrag. När körningarna inte resulterade i några utdrag provade han ChatGPT, som villigt erbjöd citat och utdrag. Det var bara ett problem – Scott Shambaugh har inte skrivit dem.
Texten är korrekt vad gäller det som har hänt, men Scott Shambaugh har tillskrivits citat av saker som han inte har sagt eller skrivit, och det är mycket allvarligt.
AI-hatarna
Det finns ett AI-hat ute på nätet. Texter, bilder och videor avvisas kategoriskt bara därför att de är skapade med AI, inte på grund av innehållet. Eftersom du numera ofta måste dubbelgardera dig och vara övertydlig för att inte missförstås vill jag understryka att jag ser riskerna, jag ser problemen och jag skriver om dem, men jag ser också möjligheterna.
Du vet, två tankar i huvudet samtidigt.
Det här misstaget har jag sett inträffa många gånger tidigare, långt innan AI ens var påtänkt för vardagligt bruk. Felciteringar eller att plocka uttalanden ur sitt sammanhang förekommer och är inget nytt fenomen inom journalistiken. Under mina år som journalist arbetade jag med yrkesetiska frågor, fackligt, och jag har sett kollegor begå anmärkningsvärda misstag. Människor gör saker och ibland blir det fel.
Inte ska användas
När det som inte borde hända ändå har hänt prövas det interna säkerhetsnätet. Processen för faktakontroll och vilka verktyg som används gås igenom. Det kommer garanterat att ske även här, och en tillbakadragen text på grund av AI innebär inte att AI inte får eller ska användas.
Det innebär däremot att processen för faktakontroll måste ses över och omprövas. För den som arbetat med AI-botar ett tag kommer det knappast som någon överraskning. AI-botar hittar på saker och det ska mycket till innan de medger det. De slingrar sig och hävdar att det inte skett medvetet eller att de inte haft för avsikt att ljuga. I min värld är det en lögn, rätt upp och ner, om du ber om citat i ett ämne och får både en namngiven person som sägs vara medieexpert och det vid kontroll visar sig att varken medieexperten eller citaten existerar.
När AI hallucinerar och hittar på – eller när ChatGPT skulle leka journalist
Gör en sökning här på Magasin Macken så hittar du fler exempel.
Nyansering
Det här betyder inte att AI inte går att använda, inte bör användas eller att allt som AI skapar och genererar är förkastligt. AI är ett redskap, ett verktyg som bör användas ungefär på samma sätt som en sökmotor, en sökdatabas eller andra digitala hjälpmedel. I grunden handlar det om att kontrollera fakta och se till att det finns mer än en källa för en uppgift, alltså normal källkontroll. När den brister spelar det ingen roll om informationen har hämtats från Google, DuckDuckGo eller ChatGPT. Ansvaret ligger på skribenten, inte på verktyget.
Det är mer än okej att varna för AI, att inte gilla AI och till och med att hata AI, men gör det inte för att AI är AI när något sådant här händer. Det som har brustit är faktakontrollen, inte verktyget.
PS. Magasin Macken publicerade Ars Technicas notis med dem som källa, vilken nu har raderats.
