Taylor Swift rejestruje swoje struny głosowe jako znak towarowy

Sztuczna inteligencja
Taylor Swift turns her vocal cords into a registered trademark
W obliczu zalewu deepfake'ów AI i nieautoryzowanych reklam, zespół prawny Taylor Swift próbuje wykorzystać prawo znaków towarowych do ochrony jej biometrycznej tożsamości.

W piątek, 24 kwietnia, do bazy danych Urzędu Patentów i Znaków Towarowych Stanów Zjednoczonych (USPTO) przesłano krótki plik w formacie .wav. Nie jest to piosenka ani klip promocyjny przeznaczony do emisji radiowej. To nagranie trzech słów – „Hey, it’s Taylor” – wypowiedzianych przez Taylor Swift. Składając ten fragment audio, spółka holdingowa Swift, TAS Rights Management, podejmuje próbę, która stanowi pomost między tradycyjną ochroną marki a gorączkową nową rzeczywistością bezpieczeństwa biometrycznego: stara się przekształcić specyficzne brzmienie swoich strun głosowych w prawnie chroniony znak towarowy.

Nie jest to próżność; to fortyfikacja obronna przeciwko problemowi o skali przemysłowej. W miarę jak modele generatywnej sztucznej inteligencji stają się coraz bieglejsze w klonowaniu ludzkich głosów przy użyciu zaledwie kilku sekund danych treningowych, ramy prawne ochrony tożsamości jednostki stają się przestarzałe. Działanie Swift, polegające na zarejestrowaniu jako znaku towarowego swojego głosu oraz określonego wizerunku – trzymania różowej gitary w wielokolorowym kombinezonie i srebrnych butach – sugeruje, że prawo autorskie nie jest już wystarczającą tarczą przeciwko syntetycznej fali.

Czy głos może być marką?

Techniczne napięcie wynika tu z rozróżnienia między prawem autorskim a prawem znaków towarowych. Prawo autorskie chroni konkretny „utwór” – piosenkę, książkę, fotografię. Nie chroni jednak stylu, brzmienia ani tożsamości osoby, która go stworzyła. Jeśli sztuczna inteligencja wygeneruje nową piosenkę, która brzmi dokładnie jak Taylor Swift, ale wykorzystuje nową melodię i tekst, prawnicy zajmujący się prawem autorskim często trafiają w ślepy zaułek. Prawo znaków towarowych oferuje inną ścieżkę: chroni źródło produktu. Rejestrując swój głos jako znak towarowy, Swift argumentuje, że jej barwa głosu jest „identyfikatorem źródła” jej marki, podobnie jak ryk lwa MGM czy dżingiel Intela.

Prawnicy specjalizujący się w własności intelektualnej, w tym Josh Gerben, zauważyli, że stanowi to fundamentalną zmianę. Jest to odejście od sądzenia twórczości AI w stronę sądzenia wskaźników tożsamości wykorzystywanych do jej sprzedaży. Wnioski celują w „klipy generowane przez AI lub nieautoryzowane użycia”, dając zespołowi Swift wyraźny federalny młot do uderzenia w platformy hostujące deepfake'i. To próba traktowania ludzkiego głosu z taką samą sztywnością prawną, jak logo korporacyjne.

Fiasko dobrowolnych zabezpieczeń

W przypadku incydentu z Trumpem technologię wykorzystano do sfabrykowania fałszywego poparcia – był to bezpośredni atak na komercyjną i polityczną wartość wizerunku celebryty. W Stanach Zjednoczonych przepisy dotyczące „prawa do wizerunku” (Right of Publicity) stanowią patchwork regulacji stanowych, które drastycznie różnią się między Kalifornią, Tennessee a Nowym Jorkiem. Przechodząc do sfery federalnego prawa znaków towarowych, zespół prawny Swift dąży do ustanowienia jednolitego standardu krajowego, który nie polega na kaprysach legislatur stanowych ani niespójnych regulaminach gigantów mediów społecznościowych.

Jak Europa postrzega biometryczny „wyścig po ziemię”

Podczas gdy Swift toczy swoją bitwę w amerykańskich urzędach patentowych, perspektywa europejska oferuje zupełnie inne podejście regulacyjne. Zgodnie z unijnym rozporządzeniem o sztucznej inteligencji (EU AI Act), które jest obecnie wdrażane w państwach członkowskich, istnieją konkretne obowiązki w zakresie przejrzystości dla modeli AI „wysokiego ryzyka” oraz modeli ogólnego przeznaczenia. Artykuł 52 rozporządzenia stanowi, że użytkownicy systemu AI, który generuje lub manipuluje treścią obrazu, dźwięku lub wideo w sposób, który zauważalnie przypomina istniejące osoby – powszechnie znane jako deepfake – muszą ujawnić, że treść została wygenerowana sztucznie.

W Niemczech koncepcja *allgemeines Persönlichkeitsrecht* (ogólne prawo do osobowości) jest głęboko zakorzeniona w konstytucji. Niemieckie sądy historycznie silniej chroniły prawo jednostki do kontroli własnego wizerunku i głosu niż ich amerykańscy odpowiednicy. Jednak niemiecki system prawny, podobnie jak reszta UE, zmaga się obecnie z jurysdykcyjnym koszmarem sztucznej inteligencji. Jeśli model jest trenowany w klastrze w Dublinie przy użyciu danych pobranych z serwera w Singapurze, a następnie wdrażany przez użytkownika w Monachium, „prawo do osobowości” staje się trudne do wyegzekwowania. Bruksela stawia na odgórną regulację samych dostawców modeli, podczas gdy amerykańskie podejście – udoskonalone przez Swift – polega na uzbrojeniu jednostki w wystarczające prawa własności prywatnej, by móc pozwać każdego w łańcuchu dostaw.

Wąskie gardło danych treningowych

Pod wnioskami prawnymi kryje się głębszy problem techniczny: pochodzenie danych treningowych. Modele AI, takie jak Suno, Udio czy Voicebox, nie tworzą głosów z powietrza; wymagają ogromnych zbiorów danych istniejącej ludzkiej mowy. Aby sztuczna inteligencja mogła naśladować Taylor Swift, musi najpierw „skonsumować” tysiące godzin jej nagrań. Inżynierowie w branży wiedzą, że obecna generacja dużych modeli językowych (LLM) i modeli dyfuzyjnych audio została zbudowana przy założeniu, że wszystko, co jest publicznie dostępne w Internecie, jest „dozwolonym użytkiem” do celów szkoleniowych.

Próba zarejestrowania głosu jako znaku towarowego przez Swift jest w pewnym sensie podatkiem wstecznym od tych danych treningowych. Jeśli jej głos jest zarejestrowanym znakiem towarowym, każdy model AI, który potrafi w sposób dający się udowodnić odtworzyć ten głos, może naruszać jej znak, po prostu istniejąc jako produkt komercyjny. Tworzy to potencjalną odpowiedzialność dla firm produkujących sprzęt i oprogramowanie, które zapewniają infrastrukturę dla tych modeli. Przenosi to konflikt z nastolatka tworzącego deepfake'i w swoim pokoju na wspierane przez fundusze venture capital laboratoria AI w Dolinie Krzemowej oraz klastry GPU, które je zasilają.

Rozdźwięk między prawem a opóźnieniem

Pomimo strategicznego geniuszu wniosku o rejestrację znaku towarowego, pozostaje znaczący rozdźwięk między ochroną prawną a techniczną rzeczywistością. Znak towarowy daje prawo do pozwu, ale nie daje możliwości zatrzymania wiralowego wideo, zanim osiągnie dziesięć milionów wyświetleń. Opóźnienie systemu prawnego mierzy się w miesiącach i latach; opóźnienie w rozprzestrzenianiu się deepfake'a mierzy się w sekundach. To rzeczywistość, którą inżynierowie i decydenci próbują pogodzić.

Nawet jeśli USPTO przyzna te znaki towarowe, ich egzekwowanie prawdopodobnie będzie wymagało nowego rodzaju „cyfrowego daktyloskopowania” lub znakowania wodnego – technologii, które są wciąż w powijakach i łatwo mogą zostać ominięte przez wyrafinowanych aktorów. Podobną strategię przyjął podobno Matthew McConaughey, co wskazuje, że obserwujemy początek ruchu ogradzania cyfrowych dóbr wspólnych, prowadzonego przez celebrytów. Celem jest sprawienie, by nieautoryzowane użycie ludzkiego wizerunku stało się prawnie tak kosztowne, aby twórcy AI zostali zmuszeni do budowania systemów opartych na zasadzie „dobrowolnej zgody” (opt-in), zamiast obecnie modnych modeli „najpierw pobierz, potem pytaj”.

Ostatecznie Swift robi to, co zawsze: traktuje swoją sztukę i tożsamość jako zasób przemysłowy, który należy chronić za pomocą jak najwyższych murów. Ona ma prawników, Bruksela ma dyrektywy, a twórcy AI mają dane. Czas pokaże, która z tych sił okaże się trwalsza w gospodarce cyfrowej, która coraz bardziej ceni to, co syntetyczne, ponad to, co autentyczne. Na razie plik .wav spoczywa w bazie danych USPTO – jako mały, cyfrowy słup graniczny na dzikim zachodzie ery generatywnej.

USPTO zdecyduje teraz, czy ludzki głos może być marką. To decyzja, która prawdopodobnie zapadnie w Wirginii, ale jej echa będą odczuwalne w każdej sali konferencyjnej od Cupertino po Berlin.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Dlaczego Taylor Swift ubiega się o federalny znak towarowy dla swojego głosu?
A Taylor Swift ubiega się o federalny znak towarowy dla swojego głosu, aby chronić swoją tożsamość biometryczną przed nieautoryzowanymi deepfake'ami AI i fałszywymi rekomendacjami. Podczas gdy prawa autorskie chronią konkretne utwory, zastrzeżenie barwy głosu jako znaku towarowego pozwala jej traktować głos jako identyfikator marki. Ta federalna ochrona zapewnia spójny standard prawny w całych Stanach Zjednoczonych, przezwyciężając obecną mozaikę stanowych przepisów dotyczących prawa do wizerunku, które znacząco różnią się w zależności od jurysdykcji.
Q W jaki sposób prawo znaków towarowych zapewnia lepszą ochronę przed AI niż prawo autorskie?
A Prawo autorskie chroni konkretny utwór, taki jak piosenka lub książka, ale nie chroni unikalnego stylu artysty ani jego rezonansu wokalnego. Jeśli sztuczna inteligencja wygeneruje nowy utwór, który naśladuje głos piosenkarki bez użycia jej tekstów, prawo autorskie daje niewielkie możliwości dochodzenia roszczeń. Prawo znaków towarowych wskazuje źródło pochodzenia produktu. Traktując swój głos jak logo marki, Swift może pozywać podmioty wykorzystujące markery tożsamości do sprzedaży syntetycznych treści.
Q Jakie konkretne podobieństwo i materiały audio zostały zawarte we wniosku o znak towarowy Swift?
A Zgłoszenia znaków towarowych złożone przez TAS Rights Management obejmują krótki plik audio z frazą „Hey, it’s Taylor”, aby zarejestrować jej specyficzny rezonans wokalny. Ponadto wniosek zawiera wizualny opis jej wizerunku, przedstawiający ją w wielokolorowym body i srebrnych butach z różową gitarą. Te konkretne znaczniki mają służyć jako chronione federalnie identyfikatory źródła, co ułatwia podejmowanie działań przeciwko nieautoryzowanym treściom generowanym przez AI.
Q Czym europejskie regulacje dotyczące deepfake'ów różnią się od amerykańskiego podejścia prawnego?
A Unia Europejska reguluje kwestie AI poprzez ustawę o sztucznej inteligencji (EU AI Act), która wymaga wyraźnego ujawniania informacji, gdy treść jest generowana sztucznie. Podczas gdy niektóre kraje europejskie, takie jak Niemcy, posiadają konstytucyjne ochrony dóbr osobistych, UE skupia się na odgórnych wymogach dla dostawców modeli AI. W przeciwieństwie do tego, strategia przyjęta przez Taylor Swift w Stanach Zjednoczonych ma na celu wzmocnienie jednostek poprzez prawo własności prywatnej, umożliwiając im pozywanie każdego uczestnika łańcucha dostaw AI za naruszenie znaku towarowego.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!