Vendredi 24 avril, un court fichier .wav a été téléchargé dans la base de données de l'Office américain des brevets et des marques (USPTO). Il ne s'agit ni d'une chanson ni d'un clip promotionnel destiné à la radio. C'est un enregistrement de trois mots — « Hey, it’s Taylor » — prononcés par Taylor Swift. En déposant cet extrait audio, la société holding de Swift, TAS Rights Management, tente une manœuvre qui comble le fossé entre la protection traditionnelle des marques et la nouvelle réalité effrénée de la sécurité biométrique : elle essaie de faire de la résonance spécifique de ses cordes vocales une marque commerciale protégée au niveau fédéral.
Ce n'est pas un projet de vanité ; c'est une fortification défensive contre un problème à l'échelle industrielle. À mesure que les modèles d'IA générative deviennent de plus en plus habiles à cloner des voix humaines avec seulement quelques secondes de données d'entraînement, le cadre juridique protégeant l'identité d'un individu montre ses limites. La décision de Swift de déposer sa voix et une apparence visuelle spécifique — tenant une guitare rose dans un body multicolore et des bottes argentées — suggère que le droit d'auteur n'est plus un bouclier suffisant contre la vague synthétique.
Une voix peut-elle être une marque ?
La tension technique réside ici dans la distinction entre droit d'auteur et droit des marques. Le droit d'auteur protège une « œuvre » spécifique — une chanson, un livre, une photographie. Il ne protège cependant pas le style, le ton ou l'identité de la personne qui l'a créée. Si une IA génère une nouvelle chanson qui ressemble exactement à Taylor Swift mais utilise une mélodie et des paroles inédites, les avocats spécialisés en droit d'auteur se retrouvent souvent dans une impasse. Le droit des marques offre une voie différente : il protège la source d'un produit. En enregistrant sa voix en tant que marque, Swift soutient que son timbre vocal est un « identifiant de source » pour sa marque, tout comme le rugissement du lion de la MGM ou les carillons d'Intel.
Des avocats en propriété intellectuelle, dont Josh Gerben, ont noté qu'il s'agit d'un changement fondamental. On s'éloigne des litiges sur le résultat produit par l'IA pour se concentrer sur les marqueurs d'identité utilisés pour la vendre. Les dépôts visent les « clips générés par IA ou les utilisations non autorisées », dans le but de donner à l'équipe de Swift un levier fédéral clair à abattre sur les plateformes hébergeant des deepfakes. C'est une tentative de traiter une voix humaine avec la même rigidité juridique qu'un logo d'entreprise.
L'échec des garde-fous volontaires
Dans l'incident impliquant Trump, la technologie a été utilisée pour fabriquer un faux soutien — une attaque directe contre la valeur commerciale et politique de la personnalité d'une célébrité. Aux États-Unis, les lois sur le « droit à l'image » (Right of Publicity) sont une mosaïque de réglementations nationales qui varient considérablement entre la Californie, le Tennessee et New York. En passant dans le domaine du droit fédéral des marques, l'équipe juridique de Swift recherche une norme uniforme et nationale qui ne dépend pas des caprices des législatures des États ou des conditions d'utilisation incohérentes des géants des réseaux sociaux.
Comment l'Europe perçoit cette mainmise biométrique
Alors que Swift mène sa bataille dans les bureaux des brevets américains, la perspective européenne offre une approche réglementaire radicalement différente. Dans le cadre de l'IA Act de l'UE, qui est en cours de déploiement dans les États membres, il existe des obligations de transparence spécifiques pour l'IA « à haut risque » et les modèles à usage général. L'article 52 de l'acte stipule que les utilisateurs d'un système d'IA qui génère ou manipule du contenu image, audio ou vidéo ressemblant de manière appréciable à des personnes existantes — communément appelés deepfakes — doivent divulguer que le contenu a été généré artificiellement.
En Allemagne, le concept d'allgemeines Persönlichkeitsrecht (droit général de la personnalité) est profondément ancré dans la constitution. Les tribunaux allemands ont historiquement été plus protecteurs du droit d'un individu à contrôler sa propre image et sa voix que leurs homologues américains. Cependant, le système juridique allemand, tout comme le reste de l'UE, est actuellement aux prises avec le cauchemar juridictionnel de l'IA. Si un modèle est entraîné sur un cluster à Dublin en utilisant des données extraites d'un serveur à Singapour, puis déployé par un utilisateur à Munich, le « droit à la personnalité » devient difficile à appliquer. Bruxelles mise sur une réglementation descendante des fournisseurs de modèles eux-mêmes, tandis que l'approche américaine — perfectionnée par Swift — consiste à armer l'individu avec suffisamment de droits de propriété privée pour poursuivre en justice chaque maillon de la chaîne d'approvisionnement.
Le goulot d'étranglement des données d'entraînement
Sous les dossiers juridiques se cache un grief technique plus profond : la provenance des données d'entraînement. Les modèles d'IA comme Suno, Udio ou Voicebox ne créent pas des voix à partir de rien ; ils nécessitent des ensembles de données massifs de paroles humaines existantes. Pour qu'une IA puisse imiter Taylor Swift, elle doit d'abord « consommer » des milliers d'heures de l'historique enregistré de Taylor Swift. Les ingénieurs du secteur savent que la récolte actuelle de grands modèles de langage (LLM) et de modèles de diffusion audio a été construite sur l'hypothèse que tout ce qui est accessible au public sur Internet est une « utilisation équitable » (fair use) à des fins d'entraînement.
La tentative de Swift de déposer sa voix est, d'une certaine manière, une taxe rétroactive sur ces données d'entraînement. Si sa voix est une marque déposée, alors tout modèle d'IA capable de reproduire cette voix de manière démontrable pourrait enfreindre sa marque simplement en existant en tant que produit commercial. Cela crée une responsabilité potentielle pour les entreprises de matériel et de logiciels qui fournissent l'infrastructure de ces modèles. Le conflit se déplace de l'adolescent créant des deepfakes dans sa chambre vers les laboratoires d'IA financés par du capital-risque dans la Silicon Valley et les clusters de GPU qui les alimentent.
Le fossé entre le droit et la latence
Malgré l'éclat stratégique du dépôt de marque, un écart important subsiste entre la protection juridique et la réalité technique. Une marque vous donne le droit de poursuivre, mais elle ne vous donne pas la capacité d'arrêter une vidéo virale avant qu'elle n'atteigne dix millions de vues. La latence du système juridique se mesure en mois et en années ; la latence d'un deepfake devenant viral se mesure en secondes. C'est la réalité que les ingénieurs et les décideurs politiques peinent à concilier.
Même si l'USPTO accorde ces marques, l'application nécessitera probablement un nouveau type d'« empreinte numérique » ou de filigrane — des technologies qui en sont encore à leurs balbutiements et facilement contournables par des acteurs sophistiqués. Matthew McConaughey aurait adopté une stratégie similaire, indiquant que nous assistons au début d'un mouvement d'enclosure du domaine public numérique mené par des célébrités. L'objectif est de rendre l'utilisation non autorisée de l'image humaine si coûteuse juridiquement que les développeurs d'IA soient contraints de construire des systèmes « opt-in » plutôt que les modèles « extraire d'abord, demander après » actuellement en vogue.
En fin de compte, Swift fait ce qu'elle a toujours fait : traiter son art et son identité comme un actif industriel devant être protégé par les murs les plus hauts possibles. Elle a les avocats, Bruxelles a les directives, et les extracteurs d'IA ont les données. Il reste à voir laquelle de ces forces s'avérera la plus durable dans une économie numérique qui valorise de plus en plus le synthétique par rapport à l'authentique. Pour l'instant, le fichier .wav repose dans la base de données de l'USPTO — une minuscule borne numérique dans le Far West de l'ère générative.
L'USPTO va maintenant décider si une voix humaine peut être une marque. C'est une décision qui sera probablement prise en Virginie, mais les ondes de choc se feront sentir dans chaque salle de conseil, de Cupertino à Berlin.
Comments
No comments yet. Be the first!