Die Mathematik hinter dieser Bewertung ist ebenso nüchtern wie spekulativ. Mit einem 20-köpfigen Team und einer Bewertung von 4 Milliarden Dollar bewertet der Markt jeden Mitarbeiter effektiv mit 200 Millionen Dollar. Das übertrifft die Spitzenwerte bei „Acq-Hires“, wie sie während der ersten Welle des Deep-Learning-Booms vor einem Jahrzehnt zu beobachten waren. Es deutet darauf hin, dass die Investoren – darunter Googles Venture-Capital-Sparte und das weltweit mächtigste Halbleiterunternehmen – nicht mehr an schrittweisen Verbesserungen bei Large Language Models (LLMs) interessiert sind. Sie suchen nach dem Ausgang aus der Ära der „Human-in-the-loop“-Entwicklung.
Kann Code tatsächlich besseren Code schreiben?
Die Grundprämisse der Rekursiven Superintelligenz ist das Streben nach einem autonomen Verbesserungszyklus. Die aktuelle KI-Entwicklung ist ein Prozess mit Engpässen: Menschen entwerfen die Architekturen, Menschen kuratieren die Datensätze und Menschen liefern das Reinforcement Learning from Human Feedback (RLHF), das verhindert, dass Modelle halluzinieren oder toxisch werden. Dies ist ein lineares Wachstumsmodell. Die rekursive Selbstverbesserung zielt auf ein exponentielles Modell ab, bei dem ein Modell seine eigenen algorithmischen Ineffizienzen erkennt und seinen eigenen Programmcode umschreibt, um diese zu beheben.
Ingenieure in diesem Bereich bezeichnen dies oft als „Schließen des Regelkreises“. Die Schwierigkeit liegt in der Zielfunktion. Wenn ein Modell die Aufgabe erhält, sein eigenes Schlussfolgerungsvermögen zu verbessern, benötigt es eine Möglichkeit zu verifizieren, dass seine „neue und verbesserte“ Version tatsächlich besser ist und nicht einfach nur schneller oder überzeugter von ihren eigenen Fehlern. Ohne eine Verankerung in der physischen Realität oder der formalen Logik – etwas, das LLMs bekanntermaßen fehlt – führt rekursive Selbstverbesserung oft zum sogenannten „Modellkollaps“, einer Feedbackschleife, in der die KI beginnt, ihre eigenen Eigenheiten zu verstärken, bis der Output zu statistischem Rauschen wird. Das Team bei Recursive, angeführt von Richard Socher und Tim Rocktäschel, wettet darauf, dass ihr spezifischer Ansatz der symbolischen Logik oder automatisierten Entdeckung diese Entropie umgehen kann.
Tim Rocktäschels Hintergrund am University College London und bei Google DeepMind gibt einen Hinweis auf die technische Richtung. Seine Arbeit konzentrierte sich häufig auf „Open-Ended“-Lernen – Umgebungen, in denen Agenten lernen müssen, Aufgaben zu lösen, ohne dass ihnen gesagt wird, was die Aufgaben sind. Im europäischen industriellen Kontext ist dies die Art von hochkarätiger Forschung, die normalerweise durch Horizon Europe-Zuschüsse oder den Europäischen Forschungsrat finanziert wird. Hier wurde sie von US-Risikokapital überholt, was die anhaltende Kluft zwischen europäischer akademischer Exzellenz und der Fähigkeit des Kontinents verdeutlicht, diese Exzellenz in souveräne industrielle Macht umzuwandeln.
Nvidia ist der Vermieter der Singularität
Dies schafft eine eigentümliche Kreislaufwirtschaft im Ökosystem des Silicon Valley. US-Risikokapitalfonds stellen das Kapital bereit, das die Startups für Nvidia-Hardware ausgeben, was wiederum Nvidias Gewinne in die Höhe treibt, was wiederum die breiteren Technologieindizes stärkt, auf die sich die Limited Partners der Risikokapitalfonds verlassen. Für europäische Beobachter ist dieser Kreislauf frustrierend geschlossen. Während das EU Chips Act darauf abzielt, lokale Fertigungskapazitäten aufzubauen, ist es bisher nicht gelungen, die Art von Software-Hardware-Feedbackschleife mit hohem Risiko und hoher Rendite zu fördern, die eine Bewertung von 4 Milliarden Dollar für ein vier Monate altes Unternehmen in Palo Alto möglich, in Berlin oder Paris jedoch undenkbar macht.
Die Einbeziehung von Richard Socher, dem ehemaligen Chef-Wissenschaftler von Salesforce, fügt dem, was sonst wie eine rein akademische Übung erscheinen könnte, eine Ebene kommerziellen Pragmatismus hinzu. Sochers Karriere war davon geprägt, Natural Language Processing (NLP) für Unternehmen nutzbar zu machen. Wäre Recursive Superintelligence lediglich ein „Moonshot“-Labor, hätte es in diesem Zinsumfeld wahrscheinlich Schwierigkeiten gehabt, 500 Millionen Dollar einzusammeln. Die Höhe der Finanzierung deutet darauf hin, dass der Glaube besteht, dass selbst ein Teilerfolg – eine KI, die lediglich ihre eigenen Inferenzkosten optimieren oder ihre eigenen Daten bereinigen kann – Milliarden an operativen Einsparungen für die Fortune-500-Unternehmen wert wäre.
Ist die „Intelligenzexplosion“ ein machbares technisches Ziel?
Kritiker der Theorie der rekursiven Selbstverbesserung verweisen auf das Problem der „abnehmenden Erträge“. In den meisten Ingenieursdisziplinen gilt: Je mehr man ein System optimiert, desto schwieriger wird es, weitere Verbesserungen zu erzielen. Einen Automotor mit 98 % Wirkungsgrad zu verbessern, ist wesentlich schwieriger als einen mit 40 % Wirkungsgrad. Das Narrativ der „Singularität“ setzt voraus, dass Intelligenz anders ist – dass jede Steigerung der kognitiven Leistungsfähigkeit die nächste Steigerung einfacher macht. Dies bleibt eine philosophische Hypothese, kein technischer Fakt.
Aus regulatorischer Sicht muss sich der EU AI Act möglicherweise bald mit Unternehmen auseinandersetzen, die KI nicht nur „nutzen“, sondern deren Produkt der Akt der Schöpfung selbst ist. Wenn ein Modell beginnt, seinen eigenen Code umzuschreiben, wer ist dann für den endgültigen Output verantwortlich? Die ursprünglichen Programmierer? Der Compute-Anbieter? Diese rechtliche Zweideutigkeit ist genau die Art von Sache, bei der Risikokapitalgeber in den USA mit den Schultern zucken und diejenigen in Deutschland nach ihren Versicherungspolicen greifen. Es ist ein grundlegender Unterschied in der Risikobereitschaft, der weiterhin die transatlantische Kluft definiert.
Die Geschwindigkeit dieses Deals – vier Monate von Null auf eine halbe Milliarde – ist ein Symptom eines Marktes, der panische Angst davor hat, den nächsten epochemachenden Wandel zu verpassen. Es erinnert an die Anfangstage des Wettlaufs ins All, bei dem das Ziel nicht unbedingt ein nachhaltiges Geschäftsmodell war, sondern das Ziel vor der Gegenseite zu erreichen. In diesem Fall ist das Ziel eine autonome Intelligenz, die rund um die Uhr an ihrer eigenen Evolution arbeiten kann. Wenn Recursive Superintelligence Erfolg hat, wird das Preisschild von 500 Millionen Dollar wie ein Rundungsfehler aussehen. Sollten sie scheitern, wird es als der Höhepunkt der zweiten KI-Blase in Erinnerung bleiben – ein Moment, in dem wir den Traum von einer Maschine, die selbst denken kann, höher bewerteten als die meisten Unternehmen, die tatsächlich Dinge für Menschen bauen.
Das Silicon Valley hat beschlossen, dass der intelligenteste Weg, die Zukunft zu bauen, darin besteht, die Zukunft sich selbst bauen zu lassen. Europa wartet noch darauf, dass die Unterlagen in dreifacher Ausfertigung eingereicht werden.
Kommentare
Noch keine Kommentare. Seien Sie der Erste!