Technologia, która może zagrozić amerykańskiej demokracji

Technologia
The Tech That Could Break U.S. Democracy
Gwałtowny rozwój potężnej sztucznej inteligencji, koncentracja platform oraz naciski państwa na firmy obnażają słabe punkty amerykańskich instytucji. Eksperci ostrzegają, że ta technologiczna fala — od zalewu dezinformacji po rządowe naciski na firmy AI — może trwale przekształcić procesy demokratycznego podejmowania decyzji.

Ten moment: dlaczego „american democracy know might” ma teraz znaczenie

9 marca nagłówek popularnego podcastu wprowadził do debaty publicznej zdanie, które miało zszokować: american democracy know might. Był to skrótowy zapis nowego, palącego lęku – obawy, że grupa technologii stworzonych do automatyzacji mowy, obrazu i podejmowania decyzji rozwija się szybciej niż instytucje dbające o uczciwość życia obywatelskiego. W odcinku wystąpił Dean Ball, autor tekstów o technologii, który w zeszłym roku pełnił funkcję starszego doradcy ds. polityki AI w Białym Domu. Punktem wyjścia była niedawna konfrontacja między amerykańskimi nabywcami z sektora obronnego a prywatnymi laboratoriami AI.

Spory kontraktowe między Pentagonem a czołowymi laboratoriami oraz decyzja departamentu o uznaniu jednego z dostawców za „zagrożenie dla łańcucha dostaw” wywołały sprzeciw wewnątrz i na zewnątrz rządu. Dla osób martwiących się o normy demokratyczne historia ta ma dwa powiązane ze sobą aspekty: zdolność potężnych aktorów do fabrykowania lub zalewania środowiska informacyjnego przekonującymi, fałszywymi treściami oraz zdolność państwa do wywierania nacisku na prywatne firmy poprzez stosowanie etykiet bezpieczeństwa narodowego i dźwigni zakupowej. Oba trendy, jak zauważyli słuchacze i eksperci programu, wskazują na to, jak kruche stały się wspólne fakty leżące u podstaw demokratycznych wyborów.

american democracy know might — impas wokół Anthropic i to, co ujawnia presja państwa

Spór o rolę czołowego laboratorium AI w kontraktach rządowych jest pouczającym przykładem. Negocjacje między klientem z sektora obrony a wiodącym laboratorium badawczym niedawno zostały zerwane, a urzędnicy określili laboratorium jako zagrożenie dla łańcucha dostaw — jest to klasyfikacja zazwyczaj zarezerwowana dla zagranicznych firm podejrzewanych o szpiegostwo. Posunięcie to wywołało niepokój wśród ekspertów ds. polityki, którzy postrzegają taką etykietę jako równoznaczną z rządową groźbą: zaakceptujcie nasze warunki albo straćcie dostęp do kontraktów i partnerów. Jak ujął to Dean Ball w podcaście, dynamika ta może sprawiać wrażenie niemal tyrańskich zapędów państwa ingerującego w prywatną przedsiębiorczość.

Dlaczego ma to znaczenie dla demokracji? Ponieważ gdy rządy mogą selektywnie odcinać firmę od rynku, gdy oznaczenia regulacyjne mogą być stosowane z polityczną dowolnością, komercyjni strażnicy mogą stać się de facto instrumentami władzy politycznej. Jest to podwójnie prawdziwe na silnie skoncentrowanych rynkach: garstka laboratoriów i producentów czipów dostarcza większość mocy obliczeniowej, modeli i hostingu, których potrzebuje nowoczesna sztuczna inteligencja. Gdy presja zakupowa, kontrola eksportu lub nieformalne sankcje są stosowane bez jasnych, trwałych barier ochronnych i niezależnego nadzoru, zmienia to bodźce dla firm oraz opcje dostępne zarówno dla obywateli, jak i polityków.

Te bodźce mają znaczenie. Jeśli polityka zmusza laboratoria do ukrywania zabezpieczeń lub przyspieszania premier w celu utrzymania rządowych zleceń, lub odwrotnie – jeśli firmy porzucają gwarancje interesu publicznego, by zatrzymać klientów komercyjnych, zdolność demokracji do rozstrzygania konfliktów politycznych na podstawie wspólnych dowodów ulega degradacji. To nie jest hipoteza; to dzieje się dziś w salach konferencyjnych i biurach zamówień publicznych, kształtując to, kto pisze reguły i kto na nich korzysta.

american democracy know might — dezinformacja, deepfake’i i test z Minnesoty

Jednocześnie ekosystem informacyjny jest testowany na innym froncie: wiarygodności. Na początku tego roku nagrania wideo przedstawiające brutalne incydenty z udziałem agentów federalnych w jednym z amerykańskich miast wywołały ogólnokrajową reakcję, ponieważ materiał był ewidentnie sprzeczny z oficjalnymi opisami. Ten epizod — w którym szeroko rozpowszechnione nagrania pomogły obalić twierdzenia rządu — pokazał stabilizującą moc jasnych, wspólnych dowodów. Ale podkreślił on również kruchość tego stabilizatora.

Dlaczego kruchość? Ponieważ te same systemy uczenia maszynowego pozwalają obecnie tanio i szybko produkować syntetyczne wideo, dźwięk i obrazy, które wyglądają i brzmią autentycznie. Badacze ostrzegają przed skoordynowanymi, napędzanymi przez AI „rojami dezinformacji”, zdolnymi do nasycania platform społecznościowych wieloma subtelnie różniącymi się fałszywymi narracjami, co obciąża normalne procesy weryfikacji. Jeśli przyszłym incydentom towarzyszyć będzie nie jeden jednoznaczny klip, ale dziesiątki wiarygodnych, lecz sprzecznych wersji, opinia publiczna może dojść do wniosku, że prawda jest niepoznawalna i oddać osąd temu autorytatywnemu źródłu, któremu ufa najbardziej — a to jest dokładnie ten model porażki, do którego dążą aktorzy autorytarni.

Gospodarka oparta na narracjach: hype na AI, bańki i ryzyko polityczne

Ta gospodarka oparta na narracjach generuje polityczne skutki uboczne. Przewartościowane firmy i celebryci-założyciele przyciągają nadmierną uwagę; przejęcia i zmiany w strukturze własności mediów koncentrują kontrolę nad dystrybucją i władzę redakcyjną. Gdy firmy obiecujące napędzać jutrzejszy dyskurs publiczny znajdują się w rękach powiązanych politycznie oligarchów lub gdy jeden producent czipów odpowiada za znaczną część indeksów rynkowych, wahania na prywatnych rynkach kapitałowych mogą odbijać się echem w instytucjach obywatelskich. W obliczu kryzysu ci, którzy kontrolują dystrybucję i moc obliczeniową, mogą decydować o tym, które narracje przetrwają, a które zginą.

Dźwignie polityczne i zabezpieczenia technologiczne

Nic z tego nie jest nieuniknione. Istnieją konkretne kroki, które mogą zmniejszyć ryzyko, że technologia wyprzedzi demokrację. Środki techniczne obejmują solidne systemy weryfikacji pochodzenia — podpisy kryptograficzne, śledzenie metadanych treści i cyfrowe znaki wodne dla mediów syntetycznych — tak aby zdjęcia, filmy i wyniki modeli niosły ze sobą weryfikowalne informacje o pochodzeniu. Standardy pochodzenia wymagają międzynarodowej koordynacji i niezależnej weryfikacji, aby były skuteczne.

Znaczenie mają również środki regulacyjne i obywatelskie. Platformy powinny być zobowiązane do ujawniania bodźców algorytmicznych i dostarczania raportów przejrzystości na temat wzmacniania treści, zwłaszcza w okresie wyborczym. Organy ds. zamówień publicznych i bezpieczeństwa narodowego muszą przyjąć jasne, publiczne zasady etykietowania firm lub ograniczania dostępu, a działania te powinny podlegać nadzorowi sądowemu lub kongresowemu, aby zapobiec upolitycznionej przymusie. Inwestycje w dziennikarstwo lokalne i publiczną infrastrukturę weryfikacyjną — finansowaną i prawnie chronioną przed przejęciem — wzmocnią społeczny fundament weryfikowalnych faktów.

Wreszcie, odporność ma wymiar społeczny, a nie tylko techniczny. Kampanie na rzecz umiejętności korzystania z mediów, lepsze finansowanie operacji fact-checkingowych, zasady ograniczające mikrotargetowane reklamy polityczne oraz dwupartyjne porozumienia w sprawie postępowania w sferze cyfrowej podczas wyborów mogą osłabić skutki manipulacji algorytmicznej. Budowa tych systemów będzie wymagała współpracy międzysektorowej rządów, organów normalizacyjnych, instytucji badawczych i społeczeństwa obywatelskiego — oraz pilnej uwagi, ponieważ technologie te stale przyspieszają.

Dokąd zmierzamy

Technologia zawsze zmieniała równowagę między władzą prywatną a odpowiedzialnością publiczną. Obecny moment jest wyjątkowy, ponieważ zbiegają się trzy potężne siły: generatywna AI, która może fabrykować przekonujące dowody, platformy, które mogą wzmacniać i targetować treści na masową skalę, oraz aktorzy polityczni gotowi do wykorzystania jako broni zarówno narracji, jak i dźwigni instytucjonalnych. Ta kombinacja jest powodem, dla którego ludzie mówią american democracy know might — jest to skrót określający zderzenie szybkich zmian technologicznych z wolniejszymi i słabszymi mechanizmami naprawczymi demokracji.

Istnieje jednak powód do celowego optymizmu: te same narzędzia, które ułatwiają oszustwo, mogą być również wykorzystane do weryfikacji; instytucje, które mogą zostać przejęte, mogą być również reformowane i bronione. Wybór ma charakter polityczny i techniczny, a zostanie dokonany w salach konferencyjnych, salach sądowych i parlamentach w równym stopniu, co w laboratoriach badawczych. Najważniejszym zadaniem w ciągu najbliższej dekady będzie budowa publicznej infrastruktury i barier prawnych, które sprawią, że erozja wspólnego gruntu potrzebnego demokracji będzie kosztowna, widoczna i ryzykowna.

Źródła

  • Science (praca badawcza na temat napędzanych przez AI rojów dezinformacji)
  • Pew Research Center (analiza zużycia energii i infrastruktury centrów danych)
  • Deutsche Bank (raport na temat ryzyk rynkowych AI i korekt)
  • MIT Sloan (analiza i komentarz na temat narracji w branży AI)
  • Bank of England (raport techniczny na temat podatności rynkowych)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q W jaki sposób technologia może zagrozić amerykańskiej demokracji w najbliższej dekadzie?
A Technologia może zagrozić amerykańskiej demokracji w ciągu najbliższej dekady poprzez zaawansowany nadzór, taki jak rozpoznawanie twarzy, deepfake'i, manipulację danymi oraz dezinformację napędzaną przez sztuczną inteligencję, co podważa zaufanie publiczne i umożliwia obcą ingerencję. Algorytmy mediów społecznościowych potęgują polaryzację, tworząc bańki informacyjne i promując ekstremalne treści, podczas gdy niestabilna infrastruktura cyfrowa stwarza ryzyko ataków hakerskich i manipulacji głosami. Eksperci przewidują pogorszenie sytuacji przed jakąkolwiek poprawą, jeśli nie zostaną podjęte działania regulacyjne.
Q Jakie technologie stanowią największe zagrożenie dla wyborów i procesów demokratycznych w USA?
A Największe zagrożenia płyną ze strony sztucznej inteligencji umożliwiającej tworzenie deepfake'ów, inteligentnych botów i manipulowanych treści; algorytmów mediów społecznościowych sprzyjających polaryzacji i dezinformacji; oraz technologii nadzoru, takich jak rozpoznawanie twarzy do kontroli tłumu i ograniczania prywatności. Luki w zabezpieczeniach systemów wyborczych i infrastruktury pozwalają na manipulacje ze strony aktorów państwowych, podczas gdy miliarderzy technologiczni centralizują władzę wbrew normom demokratycznym. Trendy te obejmują upośledzenie poznawcze wywołane cyfrowo, apatię wobec rzeczywistości i instrumentalizację środowisk informacyjnych.
Q Czy algorytmy mediów społecznościowych i dezinformacja mogą wpływać na wyniki wyborów?
A Tak, algorytmy mediów społecznościowych i dezinformacja mogą wpływać na wyniki wyborów poprzez zamykanie opinii w bańkach informacyjnych, wzmacnianie ekstremalnych i brutalnych treści za pomocą botów oraz podważanie zaufania do procesów wyborczych. Sztuczna inteligencja pogarsza ten stan poprzez deepfake'i i ukierunkowaną dezinformację, co utrudnia wykrywanie fałszu i zwiększa polaryzację. Brak odpowiedzialności platform doprowadził do ograniczenia debaty demokratycznej i uczestnictwa grup marginalizowanych.
Q Jakie kroki można podjąć, aby chronić demokrację przed zagrożeniami wynikającymi z technologii?
A Kroki te obejmują uchwalenie przez Kongres przepisów ochronnych dotyczących prywatności i nadzoru, wprowadzenie barier regulacyjnych dla sztucznej inteligencji i platform w celu zapewnienia odpowiedzialności, a także opracowanie środków przeciwdziałania botom i dezinformacji przy jednoczesnym zachowaniu wolności słowa. Firmy technologiczne powinny traktować priorytetowo bezpieczeństwo przy wdrażaniu AI, odbudować zespoły ds. zaufania i bezpieczeństwa oraz projektować technologie służące wartościom demokratycznym. Współpraca międzynarodowa może pomóc w przeciwdziałaniu autorytarnym postępom technologicznym.
Q Czy sztuczna inteligencja jest niebezpieczna dla demokracji, a jeśli tak, to jak można stworzyć zabezpieczenia?
A Tak, sztuczna inteligencja zagraża demokracji poprzez generowanie deepfake'ów, botów i wadliwej polityki, centralizację władzy w rękach nielicznych, zwiększanie ryzyka naruszenia prywatności oraz umożliwianie manipulacji, która rozbija zaufanie i ideologie. Zabezpieczenia obejmują rygorystyczne testy bezpieczeństwa przed wdrożeniem, przejrzyste regulacje, etyczne zarządzanie przez rządy i społeczeństwo obywatelskie oraz promowanie konkurencji w celu uniknięcia dominacji gigantów technologicznych. Równoważenie innowacji z wartościami demokratycznymi wymaga proaktywnej polityki, takiej jak ograniczanie nadmiernych wpływów sektora prywatnego.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!