Rekurencyjna superinteligencja i pracownik warty 200 mln dolarów

Sztuczna inteligencja
Recursive Superintelligence and the $200 Million Employee
120-dniowy startup pozyskał 500 milionów dolarów na realizację „Świętego Graala” AI: maszyny, która samodzielnie programuje swoje ulepszenia bez udziału człowieka.

Matematyka stojąca za tą wyceną jest równie surowa, co spekulacyjna. Przy 20-osobowym zespole i wycenie na poziomie 4 miliardów dolarów, rynek wycenia w praktyce każdego pracownika na 200 milionów dolarów. Kwota ta przewyższa szczytowe stawki typu „acq-hire” z pierwszej fali boomu na głębokie uczenie sprzed dekady. Sugeruje to, że inwestorzy — w tym ramię venture Google oraz najpotężniejsza firma produkująca półprzewodniki na świecie — nie są już zainteresowani przyrostowymi zyskami w dziedzinie dużych modeli językowych (LLM). Szukają oni wyjścia z modelu rozwoju opartego na ciągłej interwencji człowieka (human-in-the-loop).

Czy kod rzeczywiście może napisać lepszy kod?

Głównym założeniem rekurencyjnej superinteligencji (Recursive Superintelligence) jest dążenie do autonomicznego cyklu doskonalenia. Obecny rozwój sztucznej inteligencji to proces z wąskimi gardłami: ludzie projektują architektury, ludzie selekcjonują zbiory danych i ludzie zapewniają uczenie przez wzmacnianie na podstawie informacji zwrotnych od ludzi (RLHF), które zapobiega halucynacjom modeli lub ich toksyczności. Jest to model wzrostu liniowego. Rekurencyjne samodoskonalenie ma na celu osiągnięcie wzrostu wykładniczego, w którym model identyfikuje własne nieefektywności algorytmiczne i przepisuje własną bazę kodu, aby je naprawić.

Inżynierowie w tej dziedzinie często nazywają to „zamknięciem pętli”. Trudność leży w funkcji celu. Jeśli model ma za zadanie poprawić własne rozumowanie, potrzebuje sposobu na zweryfikowanie, czy jego „nowa i ulepszona” wersja jest rzeczywiście lepsza, a nie tylko szybsza lub bardziej pewna swoich błędów. Bez zakorzenienia w fizycznej rzeczywistości lub logice formalnej — czego modelom LLM notorycznie brakuje — rekurencyjne samodoskonalenie często prowadzi do „zapaści modelu” (model collapse), czyli pętli sprzężenia zwrotnego, w której SI zaczyna wzmacniać własne dziwactwa, aż wynik stanie się szumem statystycznym. Zespół Recursive, kierowany przez Richarda Sochera i Tima Rocktäschela, stawia na to, że ich specyficzne podejście do rozumowania symbolicznego lub zautomatyzowanego odkrywania pozwoli ominąć tę entropię.

Doświadczenie Tima Rocktäschela z University College London oraz Google DeepMind stanowi wskazówkę co do kierunku technicznego. Jego praca często koncentrowała się na uczeniu „otwartym” (open-ended learning) — środowiskach, w których agenci muszą nauczyć się rozwiązywania zadań bez otrzymywania instrukcji, czym te zadania są. W europejskim kontekście przemysłowym jest to rodzaj badań wysokiego szczebla, które zazwyczaj są finansowane z grantów Horizon Europe lub przez Europejską Radę ds. Badań Naukowych. Tutaj proces ten został pominięty przez amerykański kapitał podwyższonego ryzyka, co podkreśla utrzymującą się przepaść między europejską doskonałością akademicką a zdolnością kontynentu do przekucia tej doskonałości w suwerenną potęgę przemysłową.

Nvidia jest właścicielem osobliwości

Tworzy to osobliwą gospodarkę cyrkularną w ekosystemie Doliny Krzemowej. Amerykańskie fundusze venture zapewniają kapitał, który startupy wydają na sprzęt Nvidii, co następnie zawyża zyski Nvidii, co z kolei napędza szersze indeksy technologiczne, na których polegają partnerzy funduszy venture. Dla europejskich obserwatorów cykl ten jest frustrująco zamknięty. Choć unijny akt o czipach (EU Chips Act) ma na celu budowę lokalnych zdolności produkcyjnych, nie udało się jeszcze stworzyć takiej pętli sprzężenia zwrotnego między oprogramowaniem a sprzętem o wysokim ryzyku i wysokiej stopie zwrotu, która sprawia, że wycena na poziomie 4 miliardów dolarów dla czteromiesięcznej firmy jest możliwa w Palo Alto, ale nie do pomyślenia w Berlinie czy Paryżu.

Udział Richarda Sochera, byłego głównego naukowca w Salesforce, dodaje szczyptę komercyjnego pragmatyzmu do czegoś, co inaczej mogłoby wydawać się czysto akademickim ćwiczeniem. Kariera Sochera definiowana była przez praktyczne zastosowania przetwarzania języka naturalnego (NLP) w przedsiębiorstwach. Gdyby Recursive Superintelligence było jedynie laboratorium typu „moonshot”, mogłoby mieć trudności z pozyskaniem 500 milionów dolarów w obecnym środowisku stóp procentowych. Skala finansowania sugeruje przekonanie, że nawet częściowy sukces — sztuczna inteligencja, która potrafi jedynie zoptymalizować własne koszty wnioskowania lub oczyścić własne dane — byłby wart miliardy w ramach oszczędności operacyjnych dla firm z listy Fortune 500.

Czy „eksplozja inteligencji” jest wykonalnym celem inżynieryjnym?

Krytycy teorii rekurencyjnego samodoskonalenia wskazują na problem „malejących przychodów”. W większości dyscyplin inżynieryjnych im bardziej optymalizuje się system, tym trudniej o kolejne zyski. Silnik samochodowy o sprawności 98% jest znacznie trudniejszy do ulepszenia niż ten o sprawności 40%. Narracja o „osobliwości” (Singularity) zakłada, że inteligencja jest inna — że każdy przyrost zdolności poznawczych ułatwia osiągnięcie kolejnego. Pozostaje to hipotezą filozoficzną, a nie faktem inżynieryjnym.

Z punktu widzenia regulacyjnego, europejski akt o sztucznej inteligencji (AI Act) może wkrótce musieć zmierzyć się z firmami, które nie tylko „używają” SI, ale których produktem jest sam proces tworzenia. Jeśli model zaczyna przepisywać własny kod, kto ponosi odpowiedzialność za końcowy wynik? Pierwotni programiści? Dostawca mocy obliczeniowej? Ta niejednoznaczność prawna jest dokładnie tym, co sprawia, że inwestorzy venture capital w USA wzruszają ramionami, a ci w Niemczech sięgają po polisy ubezpieczeniowe. To fundamentalna różnica w apetycie na ryzyko, która wciąż definiuje podział atlantycki.

Szybkość tej transakcji — cztery miesiące od zera do pół miliarda — jest objawem rynku, który panicznie boi się przegapić kolejną zmianę definiującą epokę. Przypomina to wczesne dni wyścigu kosmicznego, gdzie celem niekoniecznie było posiadanie zrównoważonego modelu biznesowego, ale dotarcie do celu przed drugą stroną. W tym przypadku celem jest autonomiczna inteligencja, która może pracować 24 godziny na dobę, 7 dni w tygodniu nad własną ewolucją. Jeśli Recursive Superintelligence odniesie sukces, kwota 500 milionów dolarów będzie wyglądać jak błąd zaokrąglenia. Jeśli im się nie uda, zostanie to zapamiętane jako szczyt drugiej bańki sztucznej inteligencji — moment, w którym wyceniliśmy marzenie o maszynie potrafiącej samodzielnie myśleć wyżej niż większość firm, które faktycznie budują rzeczy dla ludzi.

Dolina Krzemowa zdecydowała, że najmądrzejszym sposobem na budowanie przyszłości jest pozwolenie, aby przyszłość budowała się sama. Europa wciąż czeka, aż wypełnione w trzech egzemplarzach formularze zostaną złożone w urzędzie.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Czym jest rekurencyjne samodoskonalenie w rozwoju sztucznej inteligencji?
A Rekurencyjne samodoskonalenie odnosi się do autonomicznego cyklu, w którym model AI identyfikuje nieefektywności we własnym kodzie i przepisuje go, aby poprawić swoją wydajność. W przeciwieństwie do tradycyjnego procesu tworzenia oprogramowania, który opiera się na projektantach będących ludźmi oraz wyselekcjonowanych zbiorach danych, podejście to dąży do stworzenia modelu wykładniczego wzrostu. Celem jest zamknięcie pętli poprzez umożliwienie maszynie samodzielnego programowania aktualizacji bez ingerencji człowieka, co potencjalnie może prowadzić do szybkiej i samopodtrzymującej się eksplozji inteligencji.
Q Dlaczego inwestorzy wycenili czteromiesięczny startup na 4 miliardy dolarów?
A Inwestorzy wyceniają firmę na 4 miliardy dolarów ze względu na jej skupienie na rekurencyjnej superinteligencji – technologii, która mogłoby ominąć ograniczenia liniowego wzrostu rozwoju AI kierowanego przez ludzi. Przy niewielkim, 20-osobowym zespole, wycena ta odpowiada około 200 milionom dolarów na pracownika. Inwestorzy tacy jak Google i Nvidia wierzą, że nawet częściowy sukces w automatyzacji optymalizacji AI mógłby przynieść ogromne oszczędności operacyjne i znaczącą przewagę konkurencyjną w wyścigu o autonomiczną inteligencję maszynową.
Q Jakie wyzwania techniczne uniemożliwiają AI skuteczne przepisywanie własnego kodu?
A Głównym ryzykiem technicznym jest upadek modelu (model collapse), w którym pętla sprzężenia zwrotnego powoduje, że sztuczna inteligencja wzmacnia własne błędy, aż wynik stanie się szumem statystycznym. Ponieważ duże modele językowe często nie mają oparcia w logice formalnej, mogą mieć trudności z weryfikacją, czy nowy kod jest rzeczywiście lepszy. Bez solidnej funkcji celu system ryzykuje, że stanie się szybszy lub bardziej pewny siebie, generując przy tym błędne rezultaty. To sprawia, że zamknięcie pętli bez nadzoru człowieka jest niezwykle trudne.
Q Czym różni się klimat inwestycyjny dla startupów AI w Stanach Zjednoczonych i Europie?
A Klimat inwestycyjny odzwierciedla znaczącą różnicę w skłonności do podejmowania ryzyka między tymi dwoma regionami. W Stanach Zjednoczonych inwestorzy typu venture capital są gotowi finansować wysokiego ryzyka projekty typu „moonshot” przy wycenach liczonych w miliardach dolarów, aby nie przegapić przełomowych zmian epokowych. Z kolei rozwój w Europie jest często spowalniany przez ostrożność regulacyjną, taką jak Akt o sztucznej inteligencji (AI Act), oraz poleganie na grantach akademickich. Prowadzi to do sytuacji, w której naukowcy wykształceni w Europie często pozyskują amerykańskie fundusze, aby skalować swoje innowacje wysokiego szczebla.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!