Taylor Swift lässt ihre Stimmbänder als Marke schützen

KI
Taylor Swift turns her vocal cords into a registered trademark
Angesichts einer Flut von KI-Deepfakes und unbefugten Werbepartnerschaften versucht Taylor Swifts Rechtsabteilung, das Markenrecht als Waffe zum Schutz ihrer biometrischen Identität einzusetzen.

Am Freitag, dem 24. April, wurde eine kurze .wav-Datei in die Datenbank des United States Patent and Trademark Office (USPTO) hochgeladen. Es handelt sich dabei nicht um einen Song oder einen Werbeclip für das Radio. Es ist eine Aufnahme von drei Wörtern – „Hey, it’s Taylor“ –, gesprochen von Taylor Swift. Mit der Einreichung dieses Audio-Schnipsels versucht Swifts Holdinggesellschaft, TAS Rights Management, etwas, das die Lücke zwischen traditionellem Markenschutz und der hektischen neuen Realität biometrischer Sicherheit schließt: Sie versucht, die spezifische Resonanz ihrer Stimmbänder in eine föderal geschützte Handelsmarke zu verwandeln.

Dies ist kein Eitelkeitsprojekt, sondern eine defensive Befestigung gegen ein Problem industriellen Ausmaßes. Da generative KI-Modelle immer geschickter darin werden, menschliche Stimmen mit nur wenigen Sekunden Trainingsdaten zu klonen, zeigt der rechtliche Rahmen zum Schutz der Identität einer Person sein Alter. Swifts Schritt, ihre Stimme und ein spezifisches visuelles Abbild – mit einer pinkfarbenen Gitarre in einem bunten Bodysuit und silbernen Stiefeln – als Marke schützen zu lassen, deutet darauf hin, dass das Urheberrecht kein ausreichender Schutzschild mehr gegen die synthetische Flut ist.

Kann eine Stimme eine Marke sein?

Die technische Spannung liegt hier in der Unterscheidung zwischen Urheberrecht und Markenrecht. Das Urheberrecht schützt ein spezifisches „Werk“ – einen Song, ein Buch, ein Foto. Es schützt jedoch nicht den Stil, den Tonfall oder die Identität der Person, die es geschaffen hat. Wenn eine KI einen neuen Song generiert, der exakt wie Taylor Swift klingt, aber eine neue Melodie und einen neuen Text verwendet, landen Urheberrechtsanwälte oft in einer Sackgasse. Das Markenrecht bietet einen anderen Weg: Es schützt die Quelle eines Produkts. Indem Swift ihre Stimme als Marke registrieren lässt, argumentiert sie, dass ihr Stimmklang ein „Herkunftskennzeichen“ für ihre Marke ist, ähnlich wie das Brüllen des MGM-Löwen oder der Intel-Sound.

Anwälte für geistiges Eigentum, darunter Josh Gerben, haben angemerkt, dass dies einen grundlegenden Wandel darstellt. Es ist eine Abkehr von der Verfolgung des KI-Outputs hin zur Verfolgung der Identitätsmerkmale, die zu dessen Vermarktung verwendet werden. Die Anmeldungen zielen auf „KI-generierte Clips oder unbefugte Nutzungen“ ab, um Swifts Team ein klares föderales Instrument an die Hand zu geben, mit dem sie gegen Plattformen vorgehen können, die Deepfakes hosten. Es ist der Versuch, eine menschliche Stimme mit derselben rechtlichen Strenge zu behandeln wie ein Unternehmenslogo.

Das Scheitern freiwilliger Schutzmaßnahmen

Im Fall Trump wurde die Technologie genutzt, um eine falsche Empfehlung zu fabrizieren – ein direkter Angriff auf den kommerziellen und politischen Wert der Persona eines Prominenten. In den Vereinigten Staaten sind die Gesetze zum „Right of Publicity“ ein Flickenteppich aus bundesstaatlichen Vorschriften, die zwischen Kalifornien, Tennessee und New York stark variieren. Mit dem Wechsel in den Bereich des föderalen Markenrechts strebt Swifts Rechtsteam einen einheitlichen, nationalen Standard an, der nicht von den Launen der einzelstaatlichen Gesetzgeber oder den inkonsistenten Nutzungsbedingungen der Social-Media-Giganten abhängt.

Wie Europa den biometrischen Landraub sieht

Während Swift ihren Kampf in den US-Patentämtern führt, bietet die europäische Perspektive einen völlig anderen regulatorischen Ansatz. Unter dem EU AI Act, der derzeit in den Mitgliedstaaten schrittweise in Kraft tritt, gibt es spezifische Transparenzpflichten für „Hochrisiko“-KI und Allzweckmodelle. Artikel 52 des Gesetzes schreibt vor, dass Nutzer eines KI-Systems, das Bild-, Audio- oder Videoinhalte generiert oder manipuliert, die existierenden Personen erkennbar ähneln – gemeinhin als Deepfakes bekannt –, offenlegen müssen, dass der Inhalt künstlich generiert wurde.

In Deutschland ist das Konzept des allgemeinen Persönlichkeitsrechts tief in der Verfassung verankert. Deutsche Gerichte haben das Recht des Einzelnen, die Kontrolle über das eigene Bild und die eigene Stimme zu behalten, historisch stärker geschützt als ihre amerikanischen Kollegen. Das deutsche Rechtssystem kämpft jedoch, wie der Rest der EU, derzeit mit dem jurisdiktionellen Albtraum der KI. Wenn ein Modell in einem Cluster in Dublin trainiert wird, unter Verwendung von Daten, die von einem Server in Singapur geladen wurden, und dann von einem Nutzer in München eingesetzt wird, wird das Persönlichkeitsrecht schwer durchsetzbar. Brüssel setzt auf eine Top-Down-Regulierung der Modellanbieter selbst, während der amerikanische Ansatz – perfektioniert durch Swift – darin besteht, den Einzelnen mit genügend privatrechtlichen Mitteln auszustatten, um jeden in der Lieferkette zu verklagen.

Der Engpass der Trainingsdaten

Hinter den juristischen Schriftsätzen verbirgt sich ein tieferes technisches Ärgernis: die Herkunft der Trainingsdaten. KI-Modelle wie Suno, Udio oder Voicebox erschaffen Stimmen nicht aus dem Nichts; sie benötigen massive Datensätze bestehender menschlicher Sprache. Damit eine KI Taylor Swift imitieren kann, muss sie zuerst Tausende von Stunden von Taylor Swifts aufgenommener Geschichte „konsumieren“. Ingenieure in der Branche wissen, dass die aktuelle Generation von Large Language Models (LLMs) und Audio-Diffusionsmodellen auf der Annahme basiert, dass alles, was öffentlich im Internet verfügbar ist, „Fair Use“ für das Training sei.

Swifts Versuch, ihre Stimme als Marke zu schützen, ist gewissermaßen eine rückwirkende Steuer auf diese Trainingsdaten. Wenn ihre Stimme eine eingetragene Marke ist, könnte jedes KI-Modell, das diese Stimme nachweislich reproduzieren kann, allein durch seine Existenz als kommerzielles Produkt ihr Markenrecht verletzen. Dies schafft ein potenzielles Haftungsrisiko für die Hardware- und Softwareunternehmen, die die Infrastruktur für diese Modelle bereitstellen. Es verlagert den Konflikt vom Teenager, der im Schlafzimmer Deepfakes erstellt, hin zu den risikokapitalfinanzierten KI-Laboren im Silicon Valley und den GPU-Clustern, die sie antreiben.

Die Kluft zwischen Gesetz und Latenz

Trotz der strategischen Brillanz der Markenanmeldung bleibt eine erhebliche Lücke zwischen rechtlichem Schutz und technischer Realität. Eine Marke gibt einem das Recht zu klagen, aber nicht die Möglichkeit, ein virales Video zu stoppen, bevor es zehn Millionen Aufrufe erreicht. Die Latenz des Rechtssystems wird in Monaten und Jahren gemessen; die Latenz eines viral gehenden Deepfakes in Sekunden. Dies ist die Realität, die Ingenieure und politische Entscheidungsträger in Einklang zu bringen versuchen.

Selbst wenn das USPTO diese Marken gewährt, wird die Durchsetzung wahrscheinlich eine neue Art von „digitalem Fingerabdruck“ oder Wasserzeichen erfordern – Technologien, die noch in den Kinderschuhen stecken und von raffinierten Akteuren leicht umgangen werden können. Matthew McConaughey soll eine ähnliche Strategie verfolgt haben, was darauf hindeutet, dass wir den Beginn einer von Prominenten angeführten Einhegung des digitalen Gemeinguts erleben. Das Ziel ist es, die unbefugte Nutzung eines menschlichen Abbilds so rechtlich kostspielig zu machen, dass KI-Entwickler gezwungen sind, „Opt-in“-Systeme aufzubauen, anstatt die derzeit angesagten „erst scrapen, später fragen“-Modelle zu nutzen.

Letztendlich tut Swift, was sie immer getan hat: Sie behandelt ihre Kunst und ihre Identität als industrielles Gut, das mit den höchstmöglichen Mauern geschützt werden muss. Sie hat die Anwälte, Brüssel hat die Richtlinien und die KI-Scraper haben die Daten. Es bleibt abzuwarten, welche dieser Kräfte sich in einer digitalen Wirtschaft, die das Synthetische zunehmend höher bewertet als das Authentische, als langlebiger erweisen wird. Vorerst liegt die .wav-Datei in der USPTO-Datenbank – ein winziger, digitaler Markierungspfahl im Wilden Westen des generativen Zeitalters.

Das USPTO wird nun entscheiden, ob eine menschliche Stimme eine Marke sein kann. Es ist eine Entscheidung, die wahrscheinlich in Virginia getroffen wird, aber deren Wellen in jedem Sitzungssaal von Cupertino bis Berlin zu spüren sein werden.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Warum beantragt Taylor Swift eine bundesstaatliche Marke für ihre Stimme?
A Taylor Swift beantragt eine bundesstaatliche Marke für ihre Stimme, um ihre biometrische Identität vor unbefugten KI-Deepfakes und falschen Empfehlungen zu schützen. Während das Urheberrecht spezifische Lieder schützt, erlaubt ihr die Markenanmeldung für ihr Stimm-Timbre, ihre Stimme als Markenidentifikator zu behandeln. Dieser bundesstaatliche Schutz bietet einen einheitlichen Rechtsstandard in den gesamten Vereinigten Staaten und überwindet den derzeitigen Flickenteppich aus Gesetzen zum Recht am eigenen Bild auf Bundesstaatenebene, die je nach Zuständigkeitsbereich stark variieren.
Q Wie bietet das Markenrecht einen besseren Schutz vor KI als das Urheberrecht?
A Das Urheberrecht schützt ein spezifisches Werk, wie ein Lied oder ein Buch, aber es schützt nicht den einzigartigen Stil oder die stimmliche Resonanz eines Künstlers. Wenn eine KI ein neues Lied generiert, das die Stimme eines Sängers nachahmt, ohne dessen Liedtext zu verwenden, bietet das Urheberrecht kaum Möglichkeiten zur Rechtsverfolgung. Das Markenrecht identifiziert die Quelle eines Produkts. Indem sie ihre Stimme wie ein Markenlogo behandelt, kann Swift gegen die Identitätsmerkmale vorgehen, die zum Verkauf synthetischer Inhalte verwendet werden.
Q Welche spezifischen Merkmale und Audioaufnahmen sind in Swifts Markenanmeldung enthalten?
A Die Markenanmeldungen von TAS Rights Management enthalten eine kurze Audiodatei mit dem Satz „Hey, it’s Taylor“, um ihre spezifische stimmliche Resonanz zu registrieren. Zusätzlich umfasst die Anmeldung eine visuelle Beschreibung ihres Erscheinungsbildes, die sie konkret in einem mehrfarbigen Body und silbernen Stiefeln mit einer pinkfarbenen Gitarre zeigt. Diese spezifischen Merkmale sollen als bundesrechtlich geschützte Herkunftsindikatoren dienen und es erleichtern, gegen unbefugte KI-generierte Inhalte vorzugehen.
Q Wie unterscheiden sich europäische Regelungen zu Deepfakes vom amerikanischen Rechtsansatz?
A Die Europäische Union reguliert KI durch den EU AI Act, der eine klare Kennzeichnungspflicht vorsieht, wenn Inhalte künstlich generiert wurden. Während einige europäische Länder wie Deutschland über verfassungsrechtliche Schutzbestimmungen für Persönlichkeitsrechte verfügen, konzentriert sich die EU auf allgemeine Vorgaben für Anbieter von KI-Modellen. Im Gegensatz dazu zielt die Strategie von Taylor Swift in den Vereinigten Staaten darauf ab, Einzelpersonen durch private Eigentumsrechte zu stärken, die es ihnen ermöglichen, jeden in der KI-Wertschöpfungskette wegen Markenrechtsverletzung zu verklagen.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!