Anonimowy pracownik i zautomatyzowane zniesławienie

Sztuczna inteligencja
The Unnamed Staffer and the Automated Slur
Reakcja Baracka Obamy na rasistowskie wideo wygenerowane przez sztuczną inteligencję, udostępnione przez Donalda Trumpa, uwypukla rosnącą przepaść między zarządzaniem platformami a techniczną rzeczywistością syntetycznych mediów.

Obrona Donalda Trumpa w sprawie rasistowskiego filmu wygenerowanego przez AI, który udostępnił w lutym — przedstawiającego Baracka i Michelle Obamów jako małpy — opiera się na niezwykle wygodnej wybiegu technicznym: twierdzi on, że obejrzał tylko początek. Przemawiając na pokładzie Air Force One krótko po usunięciu posta, prezydent powiedział reporterom, że pierwsze kilka sekund wydawało się „w porządku” i że nikt z jego otoczenia nie zorientował się, jak kończy się klip, zanim został on wyemitowany milionom odbiorców na Truth Social. To klasyczna wymówka ery nowoczesnej: użytkownik obwinia algorytm, administracja obwinia „anonimowego pracownika”, a sama technologia pozostaje nieodpowiedzialną czarną skrzynką.

W poniedziałek Barack Obama w końcu przerwał milczenie w tej sprawie w wywiadzie dla The New Yorker. Jego odpowiedź była przewidywalnie wyważona, będąc mistrzowską lekcją polityki „wysokich standardów”, która definiowała jego prezydenturę, a mimo to zawierała ostrą krytykę obecnego stanu cyfrowej kultury. Choć stwierdził, że nie bierze osobistych obelg do siebie, postawił wyraźną granicę w kwestii angażowania jego rodziny. „Zawsze czuję się urażony, gdy moja żona i dzieci są wciągani w takie rzeczy, ponieważ oni tego nie wybrali” — powiedział Obama. Jednak poza osobistym żalem wskazał na głębszą zgniliznę systemową: przejście debaty politycznej od dyskusji o polityce do czegoś, co opisał jako „pokaz klaunów” napędzany przez media społecznościowe i syntetyczne okrucieństwo.

Techniczna architektura wiarygodnego wyparcia

Aby zrozumieć, jak film wygenerowany przez AI, przedstawiający byłą Pierwszą Parę jako małpy, trafia na tablicę urzędującego prezydenta, trzeba przyjrzeć się kruszejącej infrastrukturze moderacji treści. W tradycyjnym krajobrazie medialnym film zawierający tak rażący rasistowski stereotyp przeszedłby przez wiele warstw kontroli prawnej i redakcyjnej. W erze Truth Social i generatywnej sztucznej inteligencji cały ten proces został zastąpiony pojedynczym przyciskiem „udostępnij”. Twierdzenie Białego Domu, że pracownik „błędnie” przesłał film, podkreśla całkowity brak wewnętrznych zabezpieczeń dla mediów syntetycznych.

To nie jest tylko błąd w ocenie; to błąd metadanych. Większość dużych firm technologicznych, szczególnie tych z siedzibą w Europie lub przestrzegających standardów C2PA (Coalition for Content Provenance and Authenticity), próbuje wprowadzić „etykiety żywieniowe” do treści generowanych przez AI. Te cyfrowe znaki wodne mają informować platformę dokładnie, co zawiera plik i skąd pochodzi, zanim użytkownik w ogóle naciśnie „play”. Truth Social działa jednak w próżni regulacyjnej, gdzie taka techniczna odpowiedzialność jest postrzegana jako naruszenie wolności słowa. Kiedy Trump mówi, że nie widział zakończenia, wykorzystuje fakt, że nasze narzędzia cyfrowe są zaprojektowane pod kątem szybkości, a nie kontekstu.

Sam film, w którym głowy Obamów zostały nałożone na ciała małp tańczących do „The Lion Sleeps Tonight”, jest prymitywną formą deepfake’u. Do jego stworzenia nie potrzeba superkomputera ani agencji wywiadowczej szczebla państwowego; wymaga on karty graficznej klasy konsumenckiej i kilku minut szkolenia na modelu open-source. Ta demokratyzacja cyfrowego zamachu jest dokładnie tym, co EU AI Act próbował ograniczyć poprzez surowe wymogi przejrzystości. W Brukseli od dawna skupiano się na dostawcy modelu – dbając o to, by samo oprogramowanie miało wbudowane blokady przed generowaniem mowy nienawiści. Na Florydzie i w Waszyngtonie uwaga pozostaje skupiona na porządkowaniu po fakcie, co okazuje się strategią coraz bardziej daremną.

Czy „wysokie standardy” istnieją w syntetycznym ekosystemie?

Naleganie Obamy na przyzwoitość, uprzejmość i życzliwość brzmi jak komunikat z innego stulecia. „Nie wydaje się, by wśród ludzi, którzy kiedyś uważali, że trzeba zachować pewien rodzaj przyzwoitości, istniał jakikolwiek wstyd z tego powodu” – powiedział w The New Yorker. Ale przyzwoitość to cecha ludzka; algorytmy są zoptymalizowane pod kątem zaangażowania. Rasistowski stereotyp użyty w filmie nie był przypadkiem danych treningowych AI; był świadomym wyborem twórcy, aby uderzyć w konkretną, historyczną strunę. AI zapewniła jedynie efektywność w jego wykonaniu.

Istnieje szczególna ironia w obawie Obamy, że AI jest wykorzystywana do traktowania wojny „jak gry wideo”. Odnosi się on do kolejnej serii postów z Białego Domu Trumpa, które wykorzystywały syntetyczne obrazy do stylizacji działań wojennych przeciwko Iranowi. Dla byłego prezydenta, który był pionierem wykorzystania dronów w walce – posunięcia często krytykowanego za swój kliniczny, zdystansowany charakter – przejście do dosłownie zgrywalizowanej wizji wojny jest logicznym, choć groteskowym wnioskiem. Zmierzamy w stronę rzeczywistości politycznej, w której zapis wizualny jest całkowicie oderwany od fizycznej rzeczywistości. Jeśli prezydent może opublikować swoje zdjęcie bez koszulki wygenerowane przez AI pod Pomnikiem Lincolna – jak zrobił to niedawno Trump – a następnie dodać do tego rasistowski deepfake swojego poprzednika, sama koncepcja „faktu” zaczyna się rozpuszczać.

Reakcja wewnątrz Partii Republikańskiej była znamiennie rozbita. Podczas gdy postacie takie jak Tim Scott nazwały film „najbardziej rasistowską rzeczą”, jaką widziały, oficjalna linia Białego Domu, przekazana przez Karoline Leavitt, zbyła oburzenie jako „sztuczne”. To wewnętrzne napięcie ujawnia partię zmagającą się z pogodzeniem tradycyjnych konserwatywnych wartości z totalizującymi wymaganiami populistycznego ruchu zorientowanego na media cyfrowe. Dla administracji Trumpa film z AI nie jest błędem, za który należy odpokutować; to test wytrzymałości na pozostałe zdolności publiczności do odczuwania szoku.

Efekt brukselski i granice suwerenności

Podczas gdy Stany Zjednoczone pozostają uwięzione w cyklu partyjnych sporów dotyczących tych incydentów, europejscy regulatorzy obserwują to z rosnącym niepokojem. Akt o sztucznej inteligencji (EU AI Act), który niedawno wszedł w życie w pełnym zakresie, został zaprojektowany właśnie po to, by zapobiegać produkcji tego rodzaju treści na skalę przemysłową. Prawo europejskie nakazuje, aby każdy system AI zdolny do generowania zwodniczych treści był projektowany z myślą o ich wykrywaniu. Gdyby ten film został wyprodukowany lub udostępniony przez podmiot europejski, kary liczono by w procentach globalnego obrotu.

Jednak incydent Obama-Trump pokazuje ograniczenia regulacji regionalnych w zglobalizowanej gospodarce opartej na danych. Truth Social nie zabiega o europejskich odbiorców, a jej serwery nie znajdują się we Frankfurcie ani w Paryżu. Tworzy to przystań regulacyjną, w której najbardziej toksyczne zastosowania generatywnej sztucznej inteligencji mogą być inkubowane, a następnie eksportowane za pośrednictwem globalnego internetu. Niemieckie ustawy o łańcuchu dostaw i ustawy o bezpieczeństwie cyfrowym (NetzDG) są często wskazywane jako modele oczyszczania sieci, ale są bezsilne wobec urzędującego prezydenta USA, który twierdzi, że nie obejrzał drugiej połowy pliku, który udostępnił światu.

To, co widzimy, to narodziny „suwerenności AI” jako narzędzia walki politycznej. Kiedy rząd może generować własną rzeczywistość – od bohaterskich portretów bez koszulki po dehumanizujące karykatury przeciwników – nie musi już angażować się w relacje z tradycyjną prasą czy istniejącą bazą dowodów. „Anonimowy pracownik” nie jest osobą; to duch w maszynie, wygodna fikcja, która pozwala czerpać korzyści z viralowej obelgi bez konsekwencji wynikających z przyznania się do niej.

Normalizacja cyfrowego cyrku

Jak zauważył Obama, większość Amerykanów może nadal wierzyć w przyzwoitość, ale to nie oni szkolą modele. Bariera techniczna wejścia dla tego rodzaju cyfrowego nękania zniknęła. Jesteśmy teraz w epoce, w której koszt wygenerowania rasistowskiego stereotypu jest praktycznie zerowy, podczas gdy koszt jego obalenia, zaskarżenia lub „zachowania wysokich standardów” pozostaje wysoki.

Odmowa przeprosin ze strony Białego Domu jest być może najbardziej uczciwą częścią całej tej sagi. Przeprosiny oznaczałyby przyznanie, że prezydent odpowiada za treść własnej obecności cyfrowej. W opinii obecnej administracji prezydent jest jedynie kanałem dla szerszej, nieobśredniczonej „prawdy” – nawet wtedy, gdy ta prawda jest syntetycznym kłamstwem wygenerowanym przez zewnętrzną aplikację. Pracownik nie popełnił błędu; wypełnił swoją funkcję perfekcyjnie, tworząc nagłówek, który zdominował cykl informacyjny na tydzień, zmuszając opozycję do obrony swojej godności, podczas gdy administracja przeszła do kolejnego rozpraszacza uwagi.

Europa ma regulacje. Waszyngton ma teatr. Pozostaje pytanie, czy ktokolwiek ma jeszcze prawdę.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q W jaki sposób technicznie wyprodukowano rasistowski film z Obamami wygenerowany przez sztuczną inteligencję?
A W filmie wykorzystano prymitywną technologię deepfake, w której głowy Baracka i Michelle Obamów zostały nałożone na inne ciała. Tego typu media syntetyczne nie wymagają zaawansowanej technologii rządowej; mogą być stworzone przy użyciu konsumenckiej karty graficznej i kilku minut treningu na modelu sztucznej inteligencji typu open-source. Demokratyzacja narzędzi pozwala jednostkom na tworzenie wprowadzających w błąd i szkodliwych treści przy minimalnym nakładzie wiedzy technicznej lub inwestycji finansowych.
Q Jakie standardy techniczne są opracowywane w celu identyfikacji mediów syntetycznych?
A Wielkie firmy technologiczne coraz częściej przyjmują standardy C2PA, które działają jak cyfrowe etykiety żywieniowe lub znaki wodne dla multimediów. Narzędzia te osadzają metadane bezpośrednio w plikach, aby śledzić pochodzenie i autentyczność treści, informując platformy o źródle pliku przed jego udostępnieniem. Niektórym platformom brakuje jednak takich wewnętrznych zabezpieczeń, co pozwala mediom syntetycznym krążyć bez przejrzystości czy wymogów detekcji, które są obecne w bardziej rygorystycznie regulowanych środowiskach cyfrowych.
Q Czym podejście Unii Europejskiej do regulacji sztucznej inteligencji różni się od obecnych praktyk w USA?
A Akt o sztucznej inteligencji (EU AI Act) koncentruje się na prewencyjnej przejrzystości, wymagając od dostawców modeli AI wbudowywania blokad przeciwko mowie nienawiści oraz zapewnienia łatwej wykrywalności treści wprowadzających w błąd. Zgodnie z tymi przepisami organizacje mogą otrzymać wysokie kary finansowe oparte na globalnym obrocie za nieprzestrzeganie wymogów. W przeciwieństwie do tego, Stany Zjednoczone obecnie polegają bardziej na działaniach następczych i dobrowolnej moderacji ze strony poszczególnych platform – jest to strategia, która często nie zapobiega przemysłowej skali produkcji i szybkiemu rozprzestrzenianiu się mediów syntetycznych.
Q Jakie obawy wyraził Barack Obama w związku z wykorzystaniem sztucznej inteligencji w debacie politycznej?
A Barack Obama skrytykował przejście od debaty opartej na polityce do środowiska napędzanego mediami społecznościowymi, które określił mianem „cyrku”. Podkreślił utratę cyfrowej kultury dyskusji i wyraził szczególny niepokój w związku z mediami syntetycznymi wymierzonymi w członków rodziny. Co więcej, zauważył, że dystans wywołany przez sztuczną inteligencję przypomina chłodny charakter wojny dronowej, ostrzegając, że narzędzia te grożą sprowadzeniem poważnych działań geopolitycznych oraz wizualnego zapisu rzeczywistości do czegoś przypominającego grę wideo.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!