Les calculs derrière cette valorisation sont aussi frappants que spéculatifs. Avec une équipe de 20 personnes et une valorisation de 4 milliards de dollars, le marché valorise effectivement chaque employé à 200 millions de dollars. Cela dépasse les taux records d'« acq-hire » observés lors de la première vague du boom de l'apprentissage profond il y a dix ans. Cela suggère que les investisseurs — incluant la branche capital-risque de Google et l'entreprise de semi-conducteurs la plus puissante au monde — ne s'intéressent plus aux gains progressifs des grands modèles de langage (LLM). Ils cherchent la porte de sortie du développement humain dans la boucle.
Le code peut-il réellement écrire un meilleur code ?
La prémisse fondamentale de la superintelligence récursive est la poursuite d'un cycle d'amélioration autonome. Le développement actuel de l'IA est un processus en goulot d'étranglement : les humains conçoivent les architectures, les humains sélectionnent les jeux de données et les humains fournissent l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) qui empêche les modèles d'halluciner ou de devenir toxiques. Il s'agit d'un modèle de croissance linéaire. L'auto-amélioration récursive vise un modèle exponentiel, où un modèle identifie ses propres inefficacités algorithmiques et réécrit sa propre base de code pour les corriger.
Les ingénieurs du domaine appellent souvent cela « fermer la boucle ». La difficulté réside dans la fonction objectif. Si un modèle est chargé d'améliorer son propre raisonnement, il a besoin d'un moyen de vérifier que sa version « nouvelle et améliorée » est réellement meilleure, plutôt que simplement plus rapide ou plus confiante dans ses erreurs. Sans ancrage dans la réalité physique ou la logique formelle — ce qui fait cruellement défaut aux LLM —, l'auto-amélioration récursive conduit souvent à un « effondrement du modèle », une boucle de rétroaction où l'IA commence à amplifier ses propres bizarreries jusqu'à ce que le résultat devienne un bruit statistique. L'équipe de Recursive, dirigée par Richard Socher et Tim Rocktäschel, parie que leur approche spécifique du raisonnement symbolique ou de la découverte automatisée peut contourner cette entropie.
Le parcours de Tim Rocktäschel à l'University College London et chez Google DeepMind donne un indice sur l'orientation technique. Ses travaux se sont fréquemment concentrés sur l'apprentissage « ouvert » — des environnements où les agents doivent apprendre à résoudre des tâches sans qu'on leur dise quelles sont ces tâches. Dans un contexte industriel européen, c'est le type de recherche de haut niveau qui finit généralement par être financé par des subventions Horizon Europe ou le Conseil européen de la recherche. Ici, cette étape a été court-circuitée par le capital-risque américain, soulignant l'écart persistant entre l'excellence académique européenne et la capacité du continent à transformer cette excellence en puissance industrielle souveraine.
Nvidia est le propriétaire de la Singularité
Cela crée une économie circulaire particulière dans l'écosystème de la Silicon Valley. Les fonds de capital-risque américains fournissent le capital, que les startups dépensent en matériel Nvidia, ce qui gonfle ensuite les revenus de Nvidia, ce qui stimule à son tour les indices technologiques plus larges sur lesquels comptent les partenaires commanditaires des fonds de capital-risque. Pour les observateurs européens, ce cycle est frustrant de fermeture. Alors que le Chips Act de l'UE vise à renforcer la capacité de production locale, il n'a pas encore permis de favoriser le type de boucle de rétroaction logiciel-matériel à haut risque et haute récompense qui rend une valorisation de 4 milliards de dollars pour une entreprise vieille de quatre mois possible à Palo Alto, mais impensable à Berlin ou à Paris.
L'inclusion de Richard Socher, ancien directeur scientifique de Salesforce, ajoute une couche de pragmatisme commercial à ce qui pourrait autrement sembler être un exercice purement académique. La carrière de Socher a été définie par sa capacité à rendre le traitement du langage naturel (NLP) opérationnel pour l'entreprise. Si Recursive Superintelligence n'était qu'un laboratoire de « moonshot », il aurait eu du mal à lever 500 millions de dollars dans cet environnement de taux d'intérêt élevés. L'ampleur du financement suggère qu'il existe une conviction selon laquelle même un succès partiel — une IA capable simplement d'optimiser ses propres coûts d'inférence ou de nettoyer ses propres données — vaudrait des milliards en économies opérationnelles pour les entreprises du Fortune 500.
L'« explosion de l'intelligence » est-elle un objectif d'ingénierie viable ?
Les critiques de la théorie de l'auto-amélioration récursive soulignent le problème des « rendements décroissants ». Dans la plupart des disciplines d'ingénierie, plus vous optimisez un système, plus il devient difficile d'obtenir de nouveaux gains. Un moteur de voiture efficace à 98 % est nettement plus difficile à améliorer qu'un moteur efficace à 40 %. Le récit de la « Singularité » suppose que l'intelligence est différente — que chaque incrément dans la capacité cognitive facilite le prochain. Cela reste une hypothèse philosophique, et non un fait d'ingénierie.
D'un point de vue réglementaire, l'AI Act en Europe devra peut-être bientôt composer avec des entreprises qui ne se contentent pas d'« utiliser » l'IA, mais dont le produit est l'acte de création lui-même. Si un modèle commence à réécrire son propre code, qui est responsable du résultat final ? Les programmeurs originaux ? Le fournisseur de calcul ? Cette ambiguïté juridique est précisément le genre de chose qui fait hausser les épaules aux investisseurs en capital-risque aux États-Unis et qui pousse ceux en Allemagne à se précipiter sur leurs polices d'assurance. C'est une différence fondamentale d'appétit pour le risque qui continue de définir la fracture atlantique.
La rapidité de cet accord — quatre mois pour passer de zéro à un demi-milliard — est le symptôme d'un marché terrifié à l'idée de manquer le prochain changement d'époque. Cela rappelle les premiers jours de la course à l'espace, où l'objectif n'était pas nécessairement d'avoir un modèle économique durable, mais d'atteindre la destination avant l'autre camp. Dans ce cas, la destination est une intelligence autonome capable de travailler 24h/24 et 7j/7 sur sa propre évolution. Si Recursive Superintelligence réussit, le prix de 500 millions de dollars ressemblera à une erreur d'arrondi. S'ils échouent, cela restera dans les mémoires comme le sommet de la deuxième bulle de l'IA — un moment où nous avons valorisé le rêve d'une machine capable de penser par elle-même à un prix plus élevé que la plupart des entreprises qui construisent réellement des choses pour les gens.
La Silicon Valley a décidé que la manière la plus intelligente de construire le futur est de laisser le futur se construire lui-même. L'Europe, elle, attend toujours que la paperasse soit déposée en trois exemplaires.
Comments
No comments yet. Be the first!