Den namnlöse medarbetaren och den automatiserade kränkningen

AI
The Unnamed Staffer and the Automated Slur
Barack Obamas reaktion på en rasistisk AI-genererad video som delades av Donald Trump belyser den växande klyftan mellan plattformarnas styrning och den tekniska verkligheten hos syntetiska medier.

Donald Trumps försvar av den rasistiska AI-genererade video han delade i februari – som föreställde Barack och Michelle Obama som apor – vilar på en anmärkningsvärt bekväm teknikalitet: han hävdar att han bara såg början. I ett uttalande ombord på Air Force One strax efter att inlägget raderats, berättade presidenten för reportrar att de första sekunderna verkade ”okej” och att ingen i hans närhet insåg hur klippet slutade innan det sändes ut till miljontals människor på Truth Social. Det är den moderna erans klassiska ursäkt: användaren skyller på algoritmen, förvaltningen skyller på en ”namnlös medarbetare” och själva tekniken förblir en oansvarig svart låda.

I måndags bröt Barack Obama slutligen tystnaden i frågan i en intervju med The New Yorker. Hans respons var förutsägbart balanserad, en lektion i den ”fina vägens” politik som definierade hans presidentskap, men den innehöll samtidigt en skarp kritik av det rådande tillståndet för digital anständighet. Även om han hävdade att han inte tog de personliga förolämpningarna vid hjärtat, drog han en tydlig gräns vid inblandningen av sin familj. ”Jag blir alltid kränkt när min fru och mina barn dras in i saker, för de har inte valt detta”, sade Obama. Men utöver det personliga lidandet pekade han på ett djupare systemfel: övergången i den politiska debatten från diskussioner om sakpolitik till vad han beskrev som en ”cirkus” driven av sociala medier och syntetisk grymhet.

Den tekniska arkitekturen för rimlig förnekelserätt

För att förstå hur en AI-genererad video av ett tidigare presidentpar som apor hamnar i flödet hos en sittande president, måste man titta på den sönderfallande infrastrukturen för innehållsmoderering. I det traditionella medielandskapet skulle en video som innehåller en så uppenbart rasistisk trop ha passerat genom flera lager av juridisk och redaktionell granskning. I Truth Socials och den generativa AI-teknikens tidsålder har hela det arbetsflödet ersatts av en enda ”dela”-knapp. Vita husets påstående att en medarbetare ”av misstag” laddade upp videon belyser en total brist på interna skyddsmekanismer för syntetiskt medieinnehåll.

Detta är inte bara ett misslyckat omdöme; det är ett misslyckande av metadata. De flesta stora teknikföretag, särskilt de som är baserade i Europa eller som följer C2PA-standarderna (Coalition for Content Provenance and Authenticity), försöker baka in ”näringsdeklarationer” i AI-genererat innehåll. Dessa digitala vattenstämplar är avsedda att tala om för en plattform exakt vad en fil innehåller och varifrån den kommer innan en användare ens trycker på play. Truth Social verkar dock i ett regulatoriskt vakuum där en sådan teknisk ansvarsutkrävning ses som ett intrång i yttrandefriheten. När Trump säger att han inte såg slutet, utnyttjar han det faktum att våra digitala verktyg är designade för hastighet, inte för kontext.

Själva videon, där Obamas huvuden var monterade på apor som dansade till ”The Lion Sleeps Tonight”, är en primitiv form av deepfake. Det krävs ingen superdator eller underrättelsetjänst för att producera den; det krävs en GPU av konsumentkvalitet och några minuters träning på en öppen källkodsmodell. Denna demokratisering av digital lönnmordsteknik är precis vad EU:s AI-förordning försökte motverka genom strikta krav på transparens. I Bryssel har fokus länge legat på modellens leverantör – att säkerställa att själva mjukvaran har inbyggda spärrar mot att generera hatpropaganda. I Florida och Washington ligger fokus fortfarande på efterhandshantering, en strategi som visar sig vara alltmer meningslös.

Finns den ”fina vägen” i ett syntetiskt ekosystem?

Obamas betoning på anständighet, artighet och vänlighet känns som ett meddelande från ett annat århundrade. ”Det verkar inte finnas någon skam kring detta bland människor som förr i tiden kände att man var tvungen att ha någon form av hyfs”, sade han till The New Yorker. Men hyfs är en mänsklig egenskap; algoritmer är optimerade för engagemang. Den rasistiska tropen som användes i videon var inte en olyckshändelse orsakad av AI:ns träningsdata; det var ett medvetet val av skaparen för att trycka på en specifik historisk nerv. AI-tekniken tillhandahöll bara effektiviteten för att utföra det.

Det finns en specifik ironi i Obamas oro för att AI används för att behandla krig ”som ett tv-spel”. Han syftar på en annan serie inlägg från Trumps Vita huset som använde syntetiska bilder för att stilisera militära aktioner mot Iran. För en tidigare president som var pionjär i användningen av drönarkrigföring – ett grepp som ofta kritiserats för sin kliniska och distanserade natur – är övergången till bokstavligen spelifierade krigsbilder den logiska, om än groteska, slutsatsen. Vi rör oss mot en politisk verklighet där det visuella dokumentet är helt löskopplat från den fysiska verkligheten. Om en president kan posta ett AI-genererat foto på sig själv med bar överkropp vid Lincolnmonumentet – som Trump gjorde nyligen – och sedan följa upp det med en rasistisk deepfake av sin föregångare, börjar själva konceptet om ett ”faktum” att lösas upp.

Reaktionen inom det republikanska partiet har varit talande splittrad. Medan figurer som Tim Scott kallade videon för det ”mest rasistiska” han sett, avfärdade Vita husets officiella linje, framförd av Karoline Leavitt, upprördheten som ”falsk indignation”. Denna interna spänning avslöjar ett parti som kämpar med att förena traditionella konservativa värderingar med de totala kraven från en digitalt driven populistisk rörelse. För Trump-administrationen är AI-videon inte ett misstag som kräver försoning; det är ett stresstest för allmänhetens kvarvarande förmåga att känna chock.

Bryssel-effekten och suveränitetens gränser

Medan USA förblir låst i en cykel av partipolitiskt käbbel kring dessa händelser, ser europeiska tillsynsmyndigheter på med växande oro. EU:s AI-förordning, som trädde i full kraft nyligen, utformades just för att förhindra industriell produktion av denna typ av innehåll. Europeisk lag kräver att varje AI-system som är kapabelt att generera vilseledande innehåll måste vara utformat med upptäckt i åtanke. Om den här videon hade producerats eller lagrats av en europeisk aktör, skulle böterna mätas i procent av den globala omsättningen.

Incidenten med Obama och Trump visar dock gränserna för regional reglering i en globaliserad dataekonomi. Truth Social söker inte en europeisk publik, och dess servrar finns inte i Frankfurt eller Paris. Detta skapar en regulatorisk fristad där de mest giftiga tillämpningarna av generativ AI kan inkuberas och sedan exporteras via det globala internet. Tysklands egna leverantörskedjelagar och digitala säkerhetslagar (NetzDG) lyfts ofta fram som modeller för att städa upp på webben, men de är maktlösa mot en sittande amerikansk president som hävdar att han inte såg andra halvan av en fil som han delade med hela världen.

Det vi bevittnar är framväxten av ”AI-suveränitet” som ett verktyg för politisk krigföring. När en regering kan generera sin egen verklighet – från hjältemodiga porträtt med bar överkropp till avhumaniserande karikatyrer av motståndare – behöver den inte längre interagera med den traditionella pressen eller den befintliga faktabasen. Den ”namnlösa medarbetaren” är inte en person; det är ett spöke i maskinen, en bekväm fiktion som möjliggör fördelarna med ett viralt förtal utan konsekvenserna av att stå för det.

Normaliseringen av den digitala cirkusen

Som Obama noterade kanske majoriteten av det amerikanska folket fortfarande tror på anständighet, men majoriteten av det amerikanska folket är inte de som tränar modellerna. Den tekniska tröskeln för denna typ av digital trakasseri har försvunnit. Vi befinner oss nu i en era där kostnaden för att generera en rasistisk trop är i princip noll, medan kostnaden för att motbevisa den, driva rättsprocesser eller ”välja den fina vägen” förblir hög.

Vita husets vägran att be om ursäkt är kanske den mest ärliga delen av hela denna saga. Att be om ursäkt skulle vara att erkänna att presidenten är ansvarig för innehållet i sin egen digitala närvaro. I den nuvarande administrationens synsätt är presidenten bara en kanal för en bredare, oförmedlad ”sanning” – även när den sanningen är en syntetisk lögn genererad av en app från tredje part. Medarbetaren gjorde inte ett misstag; de utförde sin funktion perfekt genom att skapa en rubrik som dominerade nyhetscykeln under en vecka, och tvingade oppositionen att försvara sin värdighet medan administrationen gick vidare till nästa distraktion.

Europa har reglerna. Washington har teatern. Det återstår att se om någon fortfarande har sanningen.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Hur producerades den rasistiska AI-genererade videon med familjen Obama rent tekniskt?
A Videon använde primitiv deepfake-teknik där Barack och Michelle Obamas huvuden klistrades på andra kroppar. Denna typ av syntetiskt media kräver inte avancerad statlig teknik; istället kan den produceras med en grafikprocessor för konsumentbruk och några minuters träning på en AI-modell med öppen källkod. Denna demokratisering av verktyg gör det möjligt för individer att skapa vilseledande och skadligt innehåll med minimal teknisk expertis eller ekonomisk investering.
Q Vilka tekniska standarder utvecklas för att identifiera syntetiskt media?
A Stora teknikföretag antar i allt högre grad C2PA-standarder, vilka fungerar som digitala innehållsförteckningar eller vattenstämplar för media. Dessa verktyg bäddar in metadata direkt i filer för att spåra innehållets ursprung och äkthet, vilket informerar plattformar om en fils ursprung innan den delas. Vissa plattformar saknar dock dessa interna skyddsmekanismer, vilket gör att syntetiskt media kan spridas utan den transparens eller de krav på detektering som finns i mer strikt reglerade digitala miljöer.
Q Hur skiljer sig EU:s strategi för AI-reglering från nuvarande amerikanska metoder?
A EU:s AI-förordning fokuserar på preventiv transparens och kräver att leverantörer av AI-modeller bygger in spärrar mot hatprat och säkerställer att vilseledande innehåll är lätt att upptäcka. Enligt dessa lagar kan organisationer drabbas av dryga böter baserade på sin globala omsättning vid bristande efterlevnad. USA förlitar sig däremot i dagsläget mer på efterhandskontroller och frivillig moderering av enskilda plattformar, en strategi som ofta misslyckas med att förhindra industriell produktion och snabb spridning av syntetiskt media.
Q Vilka farhågor uttryckte Barack Obama gällande användningen av AI i politiska samtal?
A Barack Obama kritiserade övergången från sakpolitisk debatt till en miljö driven av sociala medier, som han beskrev som en cirkus. Han betonade förlusten av digital anständighet och uttryckte särskild oro över syntetiskt media som riktas mot familjemedlemmar. Vidare noterade han att den distans som AI skapar speglar den kliniska naturen hos drönarkrigföring, och varnade för att dessa verktyg riskerar att förvandla allvarliga geopolitiska handlingar och den visuella dokumentationen av verkligheten till något som liknar ett tv-spel.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!