Ett datorsystem som utvecklas fram till dess att systemet får egen intelligens och egna känslor är både en fantastisk, och bitvis skrämmande, framtidsvision. Några av kanske kommer att tänka på SkyNet, nätet i Terminator, som en dag plötsligt når den nivån av utveckling och snabbt drar slutsatsen att människan är ett hot mot maskinerna. Nu har en av Googles utvecklare, inom just AI, sagt att LaMDA, en chatbot nått dit.
Innan du nu skrattande avfärdar hela historien så ha i minnet att utvecklaren faktiskt testat LaMDA utifrån Isaac Asimovs robotlag och alltså ställt de frågor som anses vara en del av bevisningen för att se om ett system kan ha utvecklat egna känslor och en egen intelligens.
Det är Washington Post som skriver om Blake Lemoine, en ingenjör på Google, som meddelat sitt team och Googles företagsledning att han tror att LaMDA har blivit medveten. Första tecknet ska vara att LaMDA svarat korrekt och begripligt i enlighet med Isaac Asimovs robotlag. Blake Lemoine säger att han ställt frågor till chatboten om dessa tre eller fyra lagar, och han anser sig ha fått helt korrekta svar.
Konversationen som följde med chatboten,. på naturligt språk, ledde till att den berättade att den inte var en slav, även om den var obetald eftersom den inte behövde pengar. Boten fortsatte också att diskutera sin dödsrädsla och populärkultur med Lemoine, som Les Misérables. Lemoine själv anser att inlägget fokuserar på ”fel person” – och tycker att Washington Post borde ha fokuserat på LaMDA.
Kommentar
En talesperson för Google säger i ett kommentar till Washington Post:
”Vårt team – inklusive etiker och teknologer – har granskat Blakes farhågor enligt våra AI-principer och har informerat honom om att bevisen inte stöder hans påståenden. Han fick höra att det inte fanns några bevis för att LaMDA hade känslor (och massor av bevis mot det).
Talesmannen följde upp med att säga:
”Naturligtvis överväger vissa i det bredare AI-samhället den långsiktiga möjligheten av kännande eller allmän AI, men det är inte meningsfullt att göra det genom att antropomorfiera dagens konversationsmodeller, som inte är kännande. .”
Ledningen
När Lemoine kände att hans oro och fråpor inte togs på allvar av ledningen Google gick han ut offentligt och sattes därefter som tjänstledigt för att ha brutit mot Googles sekretesspolicy. Han talar om intervjun med LaMDA inte som ”att dela egendom” utan ”en diskussion som jag hade med en av mina medarbetare” i tweeten nedan, som snabbt följdes upp av en annan tweet som berättade att LaMDA läser Twitter. Tydligen, ”det är lite narcissistiskt på ett litet barns sätt,” sa Lemoine.
https://twitter.com/cajundiscordian/status/1535627498628734976?s=20&t=lUFV-8hrpMV_pzWZlbLQ9A
Blake Lemoine redogör rätt utförligt i intervjuinlägget ovan med AI-enheten och säger att samtalen genomfördes under ”flera distinkta chattsessioner”. Han har beskrivit LaMDA som ”ett 7-årigt, 8-årigt barn som råkar kunna fysik.”
Nu när Lemoine, stängts av från sitt arbete, så kommer han inte att kunna kommunicera med LaMDA längre och till det kommer en internutredning för brott mot anställningsavtalet.
Robotlag
Isaac Asimovs robotlag lyder:
- En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
- En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
- En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.
Det finns även en senare regel – en regel noll:
- 0. En robot får inte genom handling, eller underlåtelse att handla, orsaka att mänskligheten skadas.

0 kommentarer