W piątek, 24 kwietnia, do bazy danych Urzędu Patentów i Znaków Towarowych Stanów Zjednoczonych (USPTO) przesłano krótki plik w formacie .wav. Nie jest to piosenka ani klip promocyjny przeznaczony do emisji radiowej. To nagranie trzech słów – „Hey, it’s Taylor” – wypowiedzianych przez Taylor Swift. Składając ten fragment audio, spółka holdingowa Swift, TAS Rights Management, podejmuje próbę, która stanowi pomost między tradycyjną ochroną marki a gorączkową nową rzeczywistością bezpieczeństwa biometrycznego: stara się przekształcić specyficzne brzmienie swoich strun głosowych w prawnie chroniony znak towarowy.
Nie jest to próżność; to fortyfikacja obronna przeciwko problemowi o skali przemysłowej. W miarę jak modele generatywnej sztucznej inteligencji stają się coraz bieglejsze w klonowaniu ludzkich głosów przy użyciu zaledwie kilku sekund danych treningowych, ramy prawne ochrony tożsamości jednostki stają się przestarzałe. Działanie Swift, polegające na zarejestrowaniu jako znaku towarowego swojego głosu oraz określonego wizerunku – trzymania różowej gitary w wielokolorowym kombinezonie i srebrnych butach – sugeruje, że prawo autorskie nie jest już wystarczającą tarczą przeciwko syntetycznej fali.
Czy głos może być marką?
Techniczne napięcie wynika tu z rozróżnienia między prawem autorskim a prawem znaków towarowych. Prawo autorskie chroni konkretny „utwór” – piosenkę, książkę, fotografię. Nie chroni jednak stylu, brzmienia ani tożsamości osoby, która go stworzyła. Jeśli sztuczna inteligencja wygeneruje nową piosenkę, która brzmi dokładnie jak Taylor Swift, ale wykorzystuje nową melodię i tekst, prawnicy zajmujący się prawem autorskim często trafiają w ślepy zaułek. Prawo znaków towarowych oferuje inną ścieżkę: chroni źródło produktu. Rejestrując swój głos jako znak towarowy, Swift argumentuje, że jej barwa głosu jest „identyfikatorem źródła” jej marki, podobnie jak ryk lwa MGM czy dżingiel Intela.
Prawnicy specjalizujący się w własności intelektualnej, w tym Josh Gerben, zauważyli, że stanowi to fundamentalną zmianę. Jest to odejście od sądzenia twórczości AI w stronę sądzenia wskaźników tożsamości wykorzystywanych do jej sprzedaży. Wnioski celują w „klipy generowane przez AI lub nieautoryzowane użycia”, dając zespołowi Swift wyraźny federalny młot do uderzenia w platformy hostujące deepfake'i. To próba traktowania ludzkiego głosu z taką samą sztywnością prawną, jak logo korporacyjne.
Fiasko dobrowolnych zabezpieczeń
W przypadku incydentu z Trumpem technologię wykorzystano do sfabrykowania fałszywego poparcia – był to bezpośredni atak na komercyjną i polityczną wartość wizerunku celebryty. W Stanach Zjednoczonych przepisy dotyczące „prawa do wizerunku” (Right of Publicity) stanowią patchwork regulacji stanowych, które drastycznie różnią się między Kalifornią, Tennessee a Nowym Jorkiem. Przechodząc do sfery federalnego prawa znaków towarowych, zespół prawny Swift dąży do ustanowienia jednolitego standardu krajowego, który nie polega na kaprysach legislatur stanowych ani niespójnych regulaminach gigantów mediów społecznościowych.
Jak Europa postrzega biometryczny „wyścig po ziemię”
Podczas gdy Swift toczy swoją bitwę w amerykańskich urzędach patentowych, perspektywa europejska oferuje zupełnie inne podejście regulacyjne. Zgodnie z unijnym rozporządzeniem o sztucznej inteligencji (EU AI Act), które jest obecnie wdrażane w państwach członkowskich, istnieją konkretne obowiązki w zakresie przejrzystości dla modeli AI „wysokiego ryzyka” oraz modeli ogólnego przeznaczenia. Artykuł 52 rozporządzenia stanowi, że użytkownicy systemu AI, który generuje lub manipuluje treścią obrazu, dźwięku lub wideo w sposób, który zauważalnie przypomina istniejące osoby – powszechnie znane jako deepfake – muszą ujawnić, że treść została wygenerowana sztucznie.
W Niemczech koncepcja *allgemeines Persönlichkeitsrecht* (ogólne prawo do osobowości) jest głęboko zakorzeniona w konstytucji. Niemieckie sądy historycznie silniej chroniły prawo jednostki do kontroli własnego wizerunku i głosu niż ich amerykańscy odpowiednicy. Jednak niemiecki system prawny, podobnie jak reszta UE, zmaga się obecnie z jurysdykcyjnym koszmarem sztucznej inteligencji. Jeśli model jest trenowany w klastrze w Dublinie przy użyciu danych pobranych z serwera w Singapurze, a następnie wdrażany przez użytkownika w Monachium, „prawo do osobowości” staje się trudne do wyegzekwowania. Bruksela stawia na odgórną regulację samych dostawców modeli, podczas gdy amerykańskie podejście – udoskonalone przez Swift – polega na uzbrojeniu jednostki w wystarczające prawa własności prywatnej, by móc pozwać każdego w łańcuchu dostaw.
Wąskie gardło danych treningowych
Pod wnioskami prawnymi kryje się głębszy problem techniczny: pochodzenie danych treningowych. Modele AI, takie jak Suno, Udio czy Voicebox, nie tworzą głosów z powietrza; wymagają ogromnych zbiorów danych istniejącej ludzkiej mowy. Aby sztuczna inteligencja mogła naśladować Taylor Swift, musi najpierw „skonsumować” tysiące godzin jej nagrań. Inżynierowie w branży wiedzą, że obecna generacja dużych modeli językowych (LLM) i modeli dyfuzyjnych audio została zbudowana przy założeniu, że wszystko, co jest publicznie dostępne w Internecie, jest „dozwolonym użytkiem” do celów szkoleniowych.
Próba zarejestrowania głosu jako znaku towarowego przez Swift jest w pewnym sensie podatkiem wstecznym od tych danych treningowych. Jeśli jej głos jest zarejestrowanym znakiem towarowym, każdy model AI, który potrafi w sposób dający się udowodnić odtworzyć ten głos, może naruszać jej znak, po prostu istniejąc jako produkt komercyjny. Tworzy to potencjalną odpowiedzialność dla firm produkujących sprzęt i oprogramowanie, które zapewniają infrastrukturę dla tych modeli. Przenosi to konflikt z nastolatka tworzącego deepfake'i w swoim pokoju na wspierane przez fundusze venture capital laboratoria AI w Dolinie Krzemowej oraz klastry GPU, które je zasilają.
Rozdźwięk między prawem a opóźnieniem
Pomimo strategicznego geniuszu wniosku o rejestrację znaku towarowego, pozostaje znaczący rozdźwięk między ochroną prawną a techniczną rzeczywistością. Znak towarowy daje prawo do pozwu, ale nie daje możliwości zatrzymania wiralowego wideo, zanim osiągnie dziesięć milionów wyświetleń. Opóźnienie systemu prawnego mierzy się w miesiącach i latach; opóźnienie w rozprzestrzenianiu się deepfake'a mierzy się w sekundach. To rzeczywistość, którą inżynierowie i decydenci próbują pogodzić.
Nawet jeśli USPTO przyzna te znaki towarowe, ich egzekwowanie prawdopodobnie będzie wymagało nowego rodzaju „cyfrowego daktyloskopowania” lub znakowania wodnego – technologii, które są wciąż w powijakach i łatwo mogą zostać ominięte przez wyrafinowanych aktorów. Podobną strategię przyjął podobno Matthew McConaughey, co wskazuje, że obserwujemy początek ruchu ogradzania cyfrowych dóbr wspólnych, prowadzonego przez celebrytów. Celem jest sprawienie, by nieautoryzowane użycie ludzkiego wizerunku stało się prawnie tak kosztowne, aby twórcy AI zostali zmuszeni do budowania systemów opartych na zasadzie „dobrowolnej zgody” (opt-in), zamiast obecnie modnych modeli „najpierw pobierz, potem pytaj”.
Ostatecznie Swift robi to, co zawsze: traktuje swoją sztukę i tożsamość jako zasób przemysłowy, który należy chronić za pomocą jak najwyższych murów. Ona ma prawników, Bruksela ma dyrektywy, a twórcy AI mają dane. Czas pokaże, która z tych sił okaże się trwalsza w gospodarce cyfrowej, która coraz bardziej ceni to, co syntetyczne, ponad to, co autentyczne. Na razie plik .wav spoczywa w bazie danych USPTO – jako mały, cyfrowy słup graniczny na dzikim zachodzie ery generatywnej.
USPTO zdecyduje teraz, czy ludzki głos może być marką. To decyzja, która prawdopodobnie zapadnie w Wirginii, ale jej echa będą odczuwalne w każdej sali konferencyjnej od Cupertino po Berlin.
Comments
No comments yet. Be the first!