De anonieme medewerker en de geautomatiseerde laster

A.I.
The Unnamed Staffer and the Automated Slur
De reactie van Barack Obama op een racistische, door AI gegenereerde video die door Donald Trump werd gedeeld, benadrukt de groeiende kloof tussen platformbestuur en de technische realiteit van synthetische media.

Donald Trumps verdediging van de racistische, door AI gegenereerde video die hij in februari deelde—waarin Barack en Michelle Obama als apen werden afgebeeld—berust op een opvallend gelegenheidsargument: hij beweert dat hij alleen het begin heeft bekeken. Kort nadat het bericht was verwijderd, vertelde de president aan verslaggevers aan boord van Air Force One dat de eerste paar seconden "prima" leken en dat niemand in zijn omgeving besefte hoe het filmpje eindigde voordat het naar miljoenen mensen op Truth Social werd verstuurd. Het is het klassieke excuus van het moderne tijdperk: de gebruiker geeft de schuld aan het algoritme, de regering wijst naar een "anonieme medewerker" en de technologie zelf blijft een onverantwoorde zwarte doos.

Op maandag doorbrak Barack Obama eindelijk zijn stilzwijgen over de kwestie in een interview met The New Yorker. Zijn reactie was voorspelbaar bedaard, een meesterklas in de politiek van de "hoge weg" die zijn presidentschap kenmerkte, maar bevatte tevens een scherpe kritiek op de huidige staat van digitaal fatsoen. Hoewel hij beweerde zich de persoonlijke beledigingen niet aan te trekken, trok hij een harde grens bij de betrokkenheid van zijn gezin. "Ik vind het altijd aanstootgevend als mijn vrouw en kinderen bij zaken worden betrokken, omdat zij daar niet voor gekozen hebben," zei Obama. Maar afgezien van het persoonlijke leed wees hij op een dieper systemisch verval: de transformatie van het politieke debat van een discussie over beleid naar wat hij omschreef als een "clownshow", aangedreven door sociale media en synthetische wreedheid.

De technische architectuur van aannemelijke ontkenning

Om te begrijpen hoe een door AI gegenereerde video van een voormalig First Couple als apen op de tijdlijn van een zittend president belandt, moet men kijken naar de afbrokkelende infrastructuur van contentmoderatie. In het traditionele medialandschap zou een video met zo'n flagrante racistische trope door meerdere lagen van juridische en redactionele toetsing zijn gegaan. In het tijdperk van Truth Social en generatieve AI is die hele workflow vervangen door één enkele "share"-knop. De bewering van het Witte Huis dat een medewerker de video "per abuis" heeft geüpload, benadrukt een totaal gebrek aan interne vangrails voor synthetische media.

Dit is niet enkel een beoordelingsfout; het is een tekortkoming in metadata. De meeste grote technologiebedrijven, met name die in Europa of die zich houden aan de C2PA-standaarden (Coalition for Content Provenance and Authenticity), proberen "voedingslabels" in door AI gegenereerde content in te bouwen. Deze digitale watermerken zijn bedoeld om een platform te vertellen wat een bestand bevat en waar het vandaan komt, nog voordat een gebruiker op afspelen drukt. Truth Social opereert echter in een regelgevend vacuüm waarin dergelijke technische verantwoording wordt gezien als een inbreuk op de vrijheid van meningsuiting. Wanneer Trump zegt dat hij het einde niet heeft gezien, buit hij het feit uit dat onze digitale hulpmiddelen zijn ontworpen voor snelheid, niet voor context.

De video zelf, waarin de hoofden van de Obama's op de lichamen van apen waren gemonteerd die dansten op "The Lion Sleeps Tonight", is een primitieve vorm van deepfake. Het vereist geen supercomputer of een inlichtingendienst van staatsniveau om dit te produceren; het vereist een consumenten-GPU en een paar minuten training op een open-source model. Deze democratisering van digitale moord is precies wat de EU AI Act probeerde te matigen door middel van strikte transparantie-eisen. In Brussel lag de focus lang op de aanbieder van het model—ervoor zorgen dat de software zelf ingebouwde blokkades heeft tegen het genereren van haatzaaiende uitlatingen. In Florida en Washington blijft de focus liggen op de achterafcorrectie, een strategie die steeds vruchtelozer blijkt.

Bestaat de 'hoge weg' in een synthetisch ecosysteem?

Obama's aandringen op fatsoen, hoffelijkheid en vriendelijkheid voelt aan als een bericht uit een andere eeuw. "Er lijkt geen schaamte meer te zijn onder mensen van wie je vroeger dacht dat ze een zekere mate van decorum moesten bezitten," vertelde hij aan The New Yorker. Maar fatsoen is een menselijke eigenschap; algoritmen zijn geoptimaliseerd voor interactie. De racistische trope die in de video werd gebruikt, was geen ongelukje van de trainingsdata van de AI; het was een bewuste keuze van de maker om een specifieke, historische snaar te raken. De AI bood slechts de efficiëntie om het uit te voeren.

Er zit een specifieke ironie in Obama's zorg dat AI wordt gebruikt om oorlog "als een videogame" te behandelen. Hij verwijst naar een andere reeks berichten van het Witte Huis onder Trump waarin synthetische beelden werden gebruikt om militaire acties tegen Iran te styliseren. Voor een voormalig president die pionierde in het gebruik van droneoorlogvoering—een zet die vaak bekritiseerd werd om zijn klinische, afstandelijke aard—is de overgang naar letterlijk vergamified oorlogsimago de logische, zij het groteske, conclusie. We bewegen ons naar een politieke realiteit waarin het visuele archief volledig losgekoppeld is van de fysieke realiteit. Als een president een AI-foto van zichzelf zonder shirt bij het Lincoln Memorial kan plaatsen—zoals Trump onlangs deed—en daarna een racistische deepfake van zijn voorganger, begint het concept van een "feit" zelf op te lossen.

De reactie vanuit de Republikeinse partij is veelzeggend verdeeld. Terwijl figuren als Tim Scott de video bestempelden als het "meest racistische" dat ze ooit hadden gezien, deed de officiële lijn van het Witte Huis, verwoord door Karoline Leavitt, de ophef af als "nepverontwaardiging". Deze interne spanning onthult een partij die worstelt om traditionele conservatieve waarden te verzoenen met de totalitaire eisen van een digital-first populistische beweging. Voor de regering-Trump is de AI-video geen fout waarvoor boete gedaan moet worden; het is een stresstest voor het resterende incasseringsvermogen van het publiek.

Het Brussels effect en de grenzen van soevereiniteit

Terwijl de Verenigde Staten gevangen blijven in een cyclus van partijpolitiek gekibbel over deze incidenten, kijken Europese toezichthouders met toenemende alarm toe. De EU AI Act, die onlangs volledig van kracht is geworden, was precies ontworpen om de industriële productie van dit soort content te voorkomen. De Europese wetgeving verplicht dat elk AI-systeem dat in staat is om misleidende content te genereren, ontworpen moet zijn met detectie in het achterhoofd. Als deze video door een Europese entiteit was geproduceerd of gehost, zouden de boetes worden uitgedrukt in percentages van de wereldwijde omzet.

Het Obama-Trump-incident toont echter de grenzen van regionale regelgeving in een geglobaliseerde data-economie aan. Truth Social streeft niet naar een Europees publiek en de servers staan niet in Frankfurt of Parijs. Dit creëert een toevluchtsoord waar de meest giftige toepassingen van generatieve AI kunnen worden geïncubeerd en vervolgens geëxporteerd via het wereldwijde internet. De Duitse wetten voor toeleveringsketens en digitale veiligheid (NetzDG) worden vaak aangehaald als modellen om het internet schoon te vegen, maar ze zijn machteloos tegenover een zittend Amerikaans president die beweert dat hij de tweede helft niet heeft gezien van een bestand dat hij met de wereld deelde.

Wat we zien is de opkomst van "AI-soevereiniteit" als instrument voor politieke oorlogsvoering. Wanneer een regering haar eigen realiteit kan genereren—van heldhaftige portretten zonder shirt tot ontmenselijkende karikaturen van tegenstanders—hoeft ze niet langer in debat te gaan met de traditionele pers of de bestaande bewijslast. De "anonieme medewerker" is geen persoon; het is een geest in de machine, een handig verzinsel dat de voordelen van een virale laster toestaat zonder de consequenties van het eigenaarschap.

De normalisering van het digitale circus

Zoals Obama opmerkte, gelooft het merendeel van het Amerikaanse volk misschien nog in fatsoen, maar het merendeel van het Amerikaanse volk is niet degene die de modellen traint. De technische drempel voor dit soort digitale intimidatie is verdwenen. We bevinden ons nu in een tijdperk waarin de kosten voor het genereren van een racistische trope in essentie nul zijn, terwijl de kosten voor het ontkrachten ervan, het juridisch aanvechten of het "hoge pad bewandelen" hoog blijven.

De weigering van het Witte Huis om excuses aan te bieden is misschien wel het meest eerlijke deel van deze hele sage. Excuses aanbieden zou betekenen dat de president verantwoordelijk is voor de inhoud van zijn eigen digitale aanwezigheid. In de visie van de huidige regering is de president slechts een doorgeefluik voor een bredere, onbemiddelde "waarheid"—zelfs wanneer die waarheid een synthetische leugen is die door een app van derden is gegenereerd. De medewerker maakte geen fout; hij voerde zijn functie perfect uit door een krantenkop te creëren die een week lang het nieuws domineerde, waardoor de oppositie gedwongen werd haar waardigheid te verdedigen terwijl de regering doorging naar de volgende afleiding.

Europa heeft de regelgeving. Washington heeft het theater. Het blijft de vraag of er nog iemand is die de waarheid heeft.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Hoe werd de racistische, door AI gegenereerde video met de Obama's technisch geproduceerd?
A De video maakte gebruik van primitieve deepfake-technologie waarbij de hoofden van Barack en Michelle Obama over andere lichamen werden geplaatst. Dit type synthetische media vereist geen geavanceerde overheidstechnologie; het kan in plaats daarvan worden geproduceerd met een consumenten-GPU en een paar minuten training op een open-source AI-model. Deze democratisering van tools stelt individuen in staat om misleidende en schadelijke inhoud te creëren met minimale technische expertise of financiële investeringen.
Q Welke technische standaarden worden ontwikkeld om synthetische media te identificeren?
A Grote technologiebedrijven adopteren in toenemende mate C2PA-standaarden, die fungeren als digitale voedingswaardelabels of watermerken voor media. Deze tools voegen metadata rechtstreeks in bestanden in om de herkomst en authenticiteit van inhoud te volgen, waardoor platforms worden geïnformeerd over de oorsprong van een bestand voordat het wordt gedeeld. Sommige platforms missen echter deze interne veiligheidsmaatregelen, waardoor synthetische media kunnen circuleren zonder de transparantie of detectievereisten die te zien zijn in strenger gereguleerde digitale omgevingen.
Q Hoe verschilt de aanpak van de Europese Unie voor AI-regulering van de huidige Amerikaanse praktijken?
A De EU AI-verordening richt zich op preventieve transparantie en vereist dat aanbieders van AI-modellen blokkades tegen haatzaaiende uitlatingen inbouwen en ervoor zorgen dat misleidende inhoud gemakkelijk detecteerbaar is. Onder deze wetgeving kunnen organisaties zware boetes krijgen op basis van hun wereldwijde omzet bij niet-naleving. De Verenigde Staten vertrouwen daarentegen momenteel meer op achteraf opruimen en vrijwillige moderatie door individuele platforms, een strategie die er vaak niet in slaagt om de industriële productie en snelle verspreiding van synthetische media te voorkomen.
Q Welke zorgen uitte Barack Obama over het gebruik van AI in het politieke debat?
A Barack Obama bekritiseerde de verschuiving van op beleid gebaseerd debat naar een door sociale media gedreven omgeving die hij omschreef als een 'clown show'. Hij wees op een verlies aan digitale wellevendheid en uitte specifieke bezorgdheid over synthetische media die familieleden als doelwit kiezen. Bovendien merkte hij op dat de door AI gedreven onthechting de klinische aard van drone-oorlogsvoering weerspiegelt, en waarschuwde hij dat deze tools het risico met zich meebrengen dat serieuze geopolitieke acties en het visuele verslag van de werkelijkheid veranderen in iets dat lijkt op een videogame.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!