Facebook har upprepade gånger sagt att AI och algoritmer ska användas för att städa upp den sociala plattformen. Med hjälp av programmering och datorer så ska rasism, hat och extremism rensas ut men Facebooks egna utvecklare tvivlar på att det är möjligt och den sociala mediejätten egna, interna information visar att bara en mycket liten del av de problematiska inläggen hittas med AI.

Hatfyllda inlägg, lögner, rasism och extremism är ett problem för Facebook som utåt säger en sak som inte stämmer med egna, interna undersökningar och mätningar. I interna dokument så säger Facebooks egna anställda att den mängd som hittas med hjälp av algoritmer och AI är mycket liten och att det handlar om några få procent – även i bästa fall så når Facebook inte två-siffrigt, 10 procent eller mer. Interna undersökningar har exempelvis visat att Facebooks AI-lösningar har haft svårt att skilja mellan tuppfäktning och krockande bilar.

That future is farther away than those executives suggest, according to internal documents reviewed by The Wall Street Journal. Facebook’s AI can’t consistently identify first-person shooting videos, racist rants and even, in one notable episode that puzzled internal researchers for weeks, the difference between cockfighting and car crashes.

On hate speech, the documents show, Facebook employees have estimated the company removes only a sliver of the posts that violate its rules—a low-single-digit percent, they say. When Facebook’s algorithms aren’t certain enough that content violates the rules to delete it, the platform shows that material to users less often—but the accounts that posted the material go unpunished.

Wall Street Journal

Interna dokument

De interna dokumenten som Wall Street Journal fått ta del av visar också att Facebook minskade antalet anställda som ska granska inlägg för två år sedan vilket gjorde Facebook ännu mer beroende av AI och tekniska lösningar.

”The problem is that we do not and possibly never will have a model that captures even a majority of integrity harms, particularly in sensitive areas”

En av Facebooks egna utvecklare i den interna dokumenten.

 

DanishEnglishFinnishFrenchGermanLatinNorwegianSpanishSwedish