Rekursive Superintelligenz und der 200-Millionen-Dollar-Mitarbeiter

KI
Recursive Superintelligence and the $200 Million Employee
Ein erst 120 Tage altes Startup hat 500 Millionen Dollar erhalten, um den „Heiligen Gral“ der KI zu verfolgen: eine Maschine, die ihre eigenen Upgrades ohne menschliches Eingreifen programmiert.

Die Mathematik hinter dieser Bewertung ist ebenso nüchtern wie spekulativ. Mit einem 20-köpfigen Team und einer Bewertung von 4 Milliarden Dollar bewertet der Markt jeden Mitarbeiter effektiv mit 200 Millionen Dollar. Das übertrifft die Spitzenwerte bei „Acq-Hires“, wie sie während der ersten Welle des Deep-Learning-Booms vor einem Jahrzehnt zu beobachten waren. Es deutet darauf hin, dass die Investoren – darunter Googles Venture-Capital-Sparte und das weltweit mächtigste Halbleiterunternehmen – nicht mehr an schrittweisen Verbesserungen bei Large Language Models (LLMs) interessiert sind. Sie suchen nach dem Ausgang aus der Ära der „Human-in-the-loop“-Entwicklung.

Kann Code tatsächlich besseren Code schreiben?

Die Grundprämisse der Rekursiven Superintelligenz ist das Streben nach einem autonomen Verbesserungszyklus. Die aktuelle KI-Entwicklung ist ein Prozess mit Engpässen: Menschen entwerfen die Architekturen, Menschen kuratieren die Datensätze und Menschen liefern das Reinforcement Learning from Human Feedback (RLHF), das verhindert, dass Modelle halluzinieren oder toxisch werden. Dies ist ein lineares Wachstumsmodell. Die rekursive Selbstverbesserung zielt auf ein exponentielles Modell ab, bei dem ein Modell seine eigenen algorithmischen Ineffizienzen erkennt und seinen eigenen Programmcode umschreibt, um diese zu beheben.

Ingenieure in diesem Bereich bezeichnen dies oft als „Schließen des Regelkreises“. Die Schwierigkeit liegt in der Zielfunktion. Wenn ein Modell die Aufgabe erhält, sein eigenes Schlussfolgerungsvermögen zu verbessern, benötigt es eine Möglichkeit zu verifizieren, dass seine „neue und verbesserte“ Version tatsächlich besser ist und nicht einfach nur schneller oder überzeugter von ihren eigenen Fehlern. Ohne eine Verankerung in der physischen Realität oder der formalen Logik – etwas, das LLMs bekanntermaßen fehlt – führt rekursive Selbstverbesserung oft zum sogenannten „Modellkollaps“, einer Feedbackschleife, in der die KI beginnt, ihre eigenen Eigenheiten zu verstärken, bis der Output zu statistischem Rauschen wird. Das Team bei Recursive, angeführt von Richard Socher und Tim Rocktäschel, wettet darauf, dass ihr spezifischer Ansatz der symbolischen Logik oder automatisierten Entdeckung diese Entropie umgehen kann.

Tim Rocktäschels Hintergrund am University College London und bei Google DeepMind gibt einen Hinweis auf die technische Richtung. Seine Arbeit konzentrierte sich häufig auf „Open-Ended“-Lernen – Umgebungen, in denen Agenten lernen müssen, Aufgaben zu lösen, ohne dass ihnen gesagt wird, was die Aufgaben sind. Im europäischen industriellen Kontext ist dies die Art von hochkarätiger Forschung, die normalerweise durch Horizon Europe-Zuschüsse oder den Europäischen Forschungsrat finanziert wird. Hier wurde sie von US-Risikokapital überholt, was die anhaltende Kluft zwischen europäischer akademischer Exzellenz und der Fähigkeit des Kontinents verdeutlicht, diese Exzellenz in souveräne industrielle Macht umzuwandeln.

Nvidia ist der Vermieter der Singularität

Dies schafft eine eigentümliche Kreislaufwirtschaft im Ökosystem des Silicon Valley. US-Risikokapitalfonds stellen das Kapital bereit, das die Startups für Nvidia-Hardware ausgeben, was wiederum Nvidias Gewinne in die Höhe treibt, was wiederum die breiteren Technologieindizes stärkt, auf die sich die Limited Partners der Risikokapitalfonds verlassen. Für europäische Beobachter ist dieser Kreislauf frustrierend geschlossen. Während das EU Chips Act darauf abzielt, lokale Fertigungskapazitäten aufzubauen, ist es bisher nicht gelungen, die Art von Software-Hardware-Feedbackschleife mit hohem Risiko und hoher Rendite zu fördern, die eine Bewertung von 4 Milliarden Dollar für ein vier Monate altes Unternehmen in Palo Alto möglich, in Berlin oder Paris jedoch undenkbar macht.

Die Einbeziehung von Richard Socher, dem ehemaligen Chef-Wissenschaftler von Salesforce, fügt dem, was sonst wie eine rein akademische Übung erscheinen könnte, eine Ebene kommerziellen Pragmatismus hinzu. Sochers Karriere war davon geprägt, Natural Language Processing (NLP) für Unternehmen nutzbar zu machen. Wäre Recursive Superintelligence lediglich ein „Moonshot“-Labor, hätte es in diesem Zinsumfeld wahrscheinlich Schwierigkeiten gehabt, 500 Millionen Dollar einzusammeln. Die Höhe der Finanzierung deutet darauf hin, dass der Glaube besteht, dass selbst ein Teilerfolg – eine KI, die lediglich ihre eigenen Inferenzkosten optimieren oder ihre eigenen Daten bereinigen kann – Milliarden an operativen Einsparungen für die Fortune-500-Unternehmen wert wäre.

Ist die „Intelligenzexplosion“ ein machbares technisches Ziel?

Kritiker der Theorie der rekursiven Selbstverbesserung verweisen auf das Problem der „abnehmenden Erträge“. In den meisten Ingenieursdisziplinen gilt: Je mehr man ein System optimiert, desto schwieriger wird es, weitere Verbesserungen zu erzielen. Einen Automotor mit 98 % Wirkungsgrad zu verbessern, ist wesentlich schwieriger als einen mit 40 % Wirkungsgrad. Das Narrativ der „Singularität“ setzt voraus, dass Intelligenz anders ist – dass jede Steigerung der kognitiven Leistungsfähigkeit die nächste Steigerung einfacher macht. Dies bleibt eine philosophische Hypothese, kein technischer Fakt.

Aus regulatorischer Sicht muss sich der EU AI Act möglicherweise bald mit Unternehmen auseinandersetzen, die KI nicht nur „nutzen“, sondern deren Produkt der Akt der Schöpfung selbst ist. Wenn ein Modell beginnt, seinen eigenen Code umzuschreiben, wer ist dann für den endgültigen Output verantwortlich? Die ursprünglichen Programmierer? Der Compute-Anbieter? Diese rechtliche Zweideutigkeit ist genau die Art von Sache, bei der Risikokapitalgeber in den USA mit den Schultern zucken und diejenigen in Deutschland nach ihren Versicherungspolicen greifen. Es ist ein grundlegender Unterschied in der Risikobereitschaft, der weiterhin die transatlantische Kluft definiert.

Die Geschwindigkeit dieses Deals – vier Monate von Null auf eine halbe Milliarde – ist ein Symptom eines Marktes, der panische Angst davor hat, den nächsten epochemachenden Wandel zu verpassen. Es erinnert an die Anfangstage des Wettlaufs ins All, bei dem das Ziel nicht unbedingt ein nachhaltiges Geschäftsmodell war, sondern das Ziel vor der Gegenseite zu erreichen. In diesem Fall ist das Ziel eine autonome Intelligenz, die rund um die Uhr an ihrer eigenen Evolution arbeiten kann. Wenn Recursive Superintelligence Erfolg hat, wird das Preisschild von 500 Millionen Dollar wie ein Rundungsfehler aussehen. Sollten sie scheitern, wird es als der Höhepunkt der zweiten KI-Blase in Erinnerung bleiben – ein Moment, in dem wir den Traum von einer Maschine, die selbst denken kann, höher bewerteten als die meisten Unternehmen, die tatsächlich Dinge für Menschen bauen.

Das Silicon Valley hat beschlossen, dass der intelligenteste Weg, die Zukunft zu bauen, darin besteht, die Zukunft sich selbst bauen zu lassen. Europa wartet noch darauf, dass die Unterlagen in dreifacher Ausfertigung eingereicht werden.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was ist rekursive Selbstverbesserung in der KI-Entwicklung?
A Rekursive Selbstverbesserung bezeichnet einen autonomen Kreislauf, in dem ein KI-Modell Ineffizienzen in seinem eigenen Code identifiziert und sich selbst umschreibt, um die Leistung zu steigern. Im Gegensatz zur traditionellen Entwicklung, die auf menschliche Entwickler und kuratierte Datensätze angewiesen ist, zielt dieser Ansatz darauf ab, ein Modell für exponentielles Wachstum zu schaffen. Das Ziel ist es, den Kreislauf zu schließen, indem die Maschine ihre eigenen Upgrades ohne menschliches Eingreifen programmieren kann, was potenziell zu einer schnellen und selbsterhaltenden Intelligenzexplosion führen könnte.
Q Warum bewerteten Investoren ein vier Monate altes Startup mit 4 Milliarden Dollar?
A Investoren bewerten das Unternehmen mit 4 Milliarden Dollar aufgrund seines Fokus auf rekursive Superintelligenz, eine Technologie, die die linearen Wachstumsgrenzen der menschlich geleiteten KI-Entwicklung umgehen könnte. Bei einem kleinen Team von 20 Personen entspricht diese Bewertung etwa 200 Millionen Dollar pro Mitarbeiter. Geldgeber wie Google und Nvidia glauben, dass selbst ein teilweiser Erfolg bei der Automatisierung der KI-Optimierung enorme betriebliche Einsparungen und einen bedeutenden Wettbewerbsvorteil im Wettlauf um autonome Maschinenintelligenz bringen könnte.
Q Welche technischen Herausforderungen hindern KIs daran, ihren eigenen Code erfolgreich umzuschreiben?
A Ein großes technisches Risiko ist der Modellkollaps, bei dem ein Rückkopplungseffekt dazu führt, dass die KI ihre eigenen Fehler so lange verstärkt, bis das Ergebnis zu statistischem Rauschen wird. Da großen Sprachmodellen oft die Verankerung in formaler Logik fehlt, fällt es ihnen schwer zu überprüfen, ob neuer Code tatsächlich besser ist. Ohne eine robuste Zielfunktion riskiert das System, schneller oder überzeugter zu werden, während es gleichzeitig fehlerhafte Ergebnisse produziert. Dies macht es extrem schwierig, den Kreislauf ohne menschliche Aufsicht zu schließen.
Q Wie unterscheidet sich das Investitionsklima für KI-Startups zwischen den Vereinigten Staaten und Europa?
A Das Investitionsklima spiegelt eine erhebliche Diskrepanz in der Risikobereitschaft zwischen den beiden Regionen wider. In den Vereinigten Staaten sind Risikokapitalgeber bereit, hochriskante Moonshot-Projekte mit milliardenschweren Bewertungen zu finanzieren, um epochale Veränderungen nicht zu verpassen. Umgekehrt wird die europäische Entwicklung oft durch regulatorische Vorsicht, wie den AI Act, und eine Abhängigkeit von akademischen Zuschüssen gebremst. Dies führt zu einem Szenario, in dem in Europa ausgebildete Forscher häufig amerikanische Finanzmittel sichern, um ihre hochgradigen Innovationen zu skalieren.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!