Rekursiv superintelligens och 200-miljonersanställda

AI
Recursive Superintelligence and the $200 Million Employee
En 120 dagar gammal startup har säkrat 500 miljoner dollar i jakten på AI:s "heliga graal": en maskin som programmerar sina egna uppgraderingar utan mänsklig inblandning.

Matematiken bakom värderingen är lika slående som den är spekulativ. Med ett team på 20 personer och en värdering på 4 miljarder dollar prissätter marknaden i praktiken varje anställd till 200 miljoner dollar. Detta överstiger de högsta nivåerna för "acq-hires" som sågs under den första vågen av deep learning-boomen för ett decennium sedan. Det tyder på att investerarna – inklusive Googles riskkapitalgren och världens mäktigaste halvledarföretag – inte längre är intresserade av inkrementella vinster i stora språkmodeller (LLM). De letar efter avfarten från människan-i-loopen-utveckling.

Kan kod faktiskt skriva bättre kod?

Den grundläggande premissen för Recursive Superintelligence är strävan efter en autonom förbättringscykel. Dagens AI-utveckling är en flaskhalsprocess: människor designar arkitekturerna, människor kurerar dataseten och människor tillhandahåller Reinforcement Learning from Human Feedback (RLHF) som hindrar modeller från att hallucinera eller bli toxiska. Detta är en linjär tillväxtmodell. Rekursiv självförbättring siktar på en exponentiell sådan, där en modell identifierar sina egna algoritmiska ineffektiviteter och skriver om sin egen kodbas för att åtgärda dem.

Ingenjörer inom området refererar ofta till detta som att "stänga loopen". Svårigheten ligger i målfunktionen. Om en modell får i uppdrag att förbättra sitt eget resonemang behöver den ett sätt att verifiera att dess "nya och förbättrade" version faktiskt är bättre, snarare än bara snabbare eller mer självsäker i sina fel. Utan en förankring i fysisk verklighet eller formell logik – något som LLM:er som bekant saknar – leder rekursiv självförbättring ofta till "modellkollaps", en feedbackloop där AI:n börjar förstärka sina egna egenheter tills utdata blir statistiskt brus. Teamet på Recursive, lett av Richard Socher och Tim Rocktäschel, satsar på att deras specifika metod för symboliskt resonemang eller automatiserad upptäckt kan kringgå denna entropi.

Tim Rocktäschels bakgrund vid University College London och Google DeepMind ger en ledtråd om den tekniska inriktningen. Hans arbete har ofta fokuserat på "open-ended" lärande – miljöer där agenter måste lära sig att lösa uppgifter utan att få veta vad uppgifterna är. I en europeisk industriell kontext är detta den typ av högnivåforskning som vanligtvis finansieras av anslag från Horizon Europe eller Europeiska forskningsrådet. Här har det kringgåtts av amerikanskt riskkapital, vilket belyser den ihållande klyftan mellan europeisk akademisk excellens och kontinentens förmåga att skala upp den excellensen till suverän industriell makt.

Nvidia är hyresvärden för singulariteten

Detta skapar en märklig cirkulär ekonomi i ekosystemet i Silicon Valley. Amerikanska riskkapitalfonder tillhandahåller kapitalet, som startup-företagen spenderar på Nvidia-hårdvara, vilket i sin tur blåser upp Nvidias vinst, vilket i sin tur stärker de bredare teknikindex som riskkapitalfondernas begränsade partners förlitar sig på. För europeiska observatörer är denna cykel frustrerande sluten. Även om EU Chips Act syftar till att bygga lokal tillverkningskapacitet, har den ännu inte främjat den typ av mjukvaru- och hårdvarufeedbackloop med hög risk och hög avkastning som gör en värdering på 4 miljarder dollar för ett fyra månader gammalt företag möjlig i Palo Alto men otänkbar i Berlin eller Paris.

Inkluderingen av Richard Socher, tidigare chefsforskare på Salesforce, tillför ett lager av kommersiell pragmatism till vad som annars skulle kunna verka som en rent akademisk övning. Sochers karriär har definierats av att få naturlig språkbehandling (NLP) att fungera för företagsmarknaden. Om Recursive Superintelligence bara vore ett "moonshot"-labb hade det sannolikt haft svårt att dra in 500 miljoner dollar i det nuvarande ränteläget. Finansieringens omfattning tyder på en tro på att även delvis framgång – en AI som bara kan optimera sina egna inferenskostnader eller rensa sin egen data – skulle vara värd miljarder i operativa besparingar för Fortune 500-bolagen.

Är "intelligensexplosionen" ett genomförbart ingenjörsmål?

Kritiker av teorin om rekursiv självförbättring pekar på problemet med "avtagande avkastning". Inom de flesta ingenjörsdiscipliner gäller att ju mer man optimerar ett system, desto svårare blir det att hitta ytterligare vinster. En bilmotor som är 98 % effektiv är betydligt svårare att förbättra än en som är 40 % effektiv. Berättelsen om "Singulariteten" antar att intelligens är annorlunda – att varje ökning av kognitiv förmåga gör nästa ökning lättare att uppnå. Detta förblir en filosofisk hypotes, inte ett tekniskt faktum.

Ur ett regleringsperspektiv kan AI Act i Europa snart behöva ta ställning till företag som inte bara "använder" AI, utan företag vars produkt är själva skapelseakten. Om en modell börjar skriva om sin egen kod, vem bär då ansvaret för slutresultatet? De ursprungliga programmerarna? Beräkningsleverantören? Denna juridiska tvetydighet är precis den typ av sak som får riskkapitalister i USA att rycka på axlarna och de i Tyskland att söka upp sina försäkringspolicyer. Det är en grundläggande skillnad i risktagande som fortsätter att definiera den atlantiska klyftan.

Snabbheten i denna affär – fyra månader från noll till en halv miljard – är ett symptom på en marknad som är livrädd för att missa nästa epokgörande skifte. Det ekar av rymdkapplöpningens tidiga dagar, där målet inte nödvändigtvis var att ha en hållbar affärsmodell, utan att nå destinationen före motparten. I det här fallet är destinationen en autonom intelligens som kan arbeta dygnet runt på sin egen evolution. Om Recursive Superintelligence lyckas kommer prislappen på 500 miljoner dollar se ut som ett avrundningsfel. Om de misslyckas kommer det att bli ihågkommet som toppen av den andra AI-bubblan – ett ögonblick då vi värderade drömmen om en maskin som kunde tänka själv högre än de flesta av de företag som faktiskt bygger saker åt människor.

Silicon Valley har beslutat att det smartaste sättet att bygga framtiden är att låta framtiden bygga sig själv. Europa väntar fortfarande på att pappersarbetet ska fyllas i i tre exemplar.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Vad är rekursiv självförbättring inom AI-utveckling?
A Rekursiv självförbättring avser en autonom cykel där en AI-modell identifierar ineffektiviteter i sin egen kod och skriver om sig själv för att förbättra prestandan. Till skillnad från traditionell utveckling, som förlitar sig på mänskliga designers och kurerade dataset, syftar detta tillvägagångssätt till att skapa en modell för exponentiell tillväxt. Målet är att sluta cirkeln genom att låta maskinen programmera sina egna uppgraderingar utan mänsklig inblandning, vilket potentiellt kan leda till en snabb och självuppehållande intelligensexplosion.
Q Varför gav investerare en värdering på 4 miljarder dollar till en fyra månader gammal startup?
A Investerare värderar företaget till 4 miljarder dollar på grund av dess fokus på rekursiv superintelligens, en teknologi som skulle kunna kringgå de linjära tillväxtbegränsningarna hos mänskligt ledd AI-utveckling. Med ett litet team på 20 personer motsvarar denna värdering ungefär 200 miljoner dollar per anställd. Finansiärer som Google och Nvidia tror att även partiell framgång med att automatisera AI-optimering skulle kunna ge massiva driftsbesparingar och en betydande konkurrensfördel i kapplöpningen om autonom maskinintelligens.
Q Vilka tekniska utmaningar hindrar AI från att framgångsrikt skriva om sin egen kod?
A En stor teknisk risk är modellkollaps, där en återkopplingsloop får AI:n att förstärka sina egna fel tills resultatet blir statistiskt brus. Eftersom stora språkmodeller ofta saknar förankring i formell logik kan de ha svårt att verifiera om ny kod verkligen är överlägsen. Utan en robust objektiv funktion riskerar systemet att bli snabbare eller mer självsäkert samtidigt som det producerar bristfälliga resultat. Detta gör det extremt svårt att sluta cirkeln utan mänsklig tillsyn.
Q Hur skiljer sig investeringsklimatet för AI-startups mellan USA och Europa?
A Investeringsklimatet återspeglar en betydande klyfta i riskaptit mellan de två regionerna. I USA är riskkapitalister villiga att finansiera högriskprojekt med mångmiljardvärderingar för att undvika att missa epokgörande skiften. Omvänt hämmas europeisk utveckling ofta av regulatorisk försiktighet, såsom AI-förordningen (AI Act), och ett beroende av akademiska anslag. Detta leder till ett scenario där Europautbildade forskare ofta säkrar amerikansk finansiering för att skala upp sina högnivåinnovationer.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!