Matematyka stojąca za tą wyceną jest równie surowa, co spekulacyjna. Przy 20-osobowym zespole i wycenie na poziomie 4 miliardów dolarów, rynek wycenia w praktyce każdego pracownika na 200 milionów dolarów. Kwota ta przewyższa szczytowe stawki typu „acq-hire” z pierwszej fali boomu na głębokie uczenie sprzed dekady. Sugeruje to, że inwestorzy — w tym ramię venture Google oraz najpotężniejsza firma produkująca półprzewodniki na świecie — nie są już zainteresowani przyrostowymi zyskami w dziedzinie dużych modeli językowych (LLM). Szukają oni wyjścia z modelu rozwoju opartego na ciągłej interwencji człowieka (human-in-the-loop).
Czy kod rzeczywiście może napisać lepszy kod?
Głównym założeniem rekurencyjnej superinteligencji (Recursive Superintelligence) jest dążenie do autonomicznego cyklu doskonalenia. Obecny rozwój sztucznej inteligencji to proces z wąskimi gardłami: ludzie projektują architektury, ludzie selekcjonują zbiory danych i ludzie zapewniają uczenie przez wzmacnianie na podstawie informacji zwrotnych od ludzi (RLHF), które zapobiega halucynacjom modeli lub ich toksyczności. Jest to model wzrostu liniowego. Rekurencyjne samodoskonalenie ma na celu osiągnięcie wzrostu wykładniczego, w którym model identyfikuje własne nieefektywności algorytmiczne i przepisuje własną bazę kodu, aby je naprawić.
Inżynierowie w tej dziedzinie często nazywają to „zamknięciem pętli”. Trudność leży w funkcji celu. Jeśli model ma za zadanie poprawić własne rozumowanie, potrzebuje sposobu na zweryfikowanie, czy jego „nowa i ulepszona” wersja jest rzeczywiście lepsza, a nie tylko szybsza lub bardziej pewna swoich błędów. Bez zakorzenienia w fizycznej rzeczywistości lub logice formalnej — czego modelom LLM notorycznie brakuje — rekurencyjne samodoskonalenie często prowadzi do „zapaści modelu” (model collapse), czyli pętli sprzężenia zwrotnego, w której SI zaczyna wzmacniać własne dziwactwa, aż wynik stanie się szumem statystycznym. Zespół Recursive, kierowany przez Richarda Sochera i Tima Rocktäschela, stawia na to, że ich specyficzne podejście do rozumowania symbolicznego lub zautomatyzowanego odkrywania pozwoli ominąć tę entropię.
Doświadczenie Tima Rocktäschela z University College London oraz Google DeepMind stanowi wskazówkę co do kierunku technicznego. Jego praca często koncentrowała się na uczeniu „otwartym” (open-ended learning) — środowiskach, w których agenci muszą nauczyć się rozwiązywania zadań bez otrzymywania instrukcji, czym te zadania są. W europejskim kontekście przemysłowym jest to rodzaj badań wysokiego szczebla, które zazwyczaj są finansowane z grantów Horizon Europe lub przez Europejską Radę ds. Badań Naukowych. Tutaj proces ten został pominięty przez amerykański kapitał podwyższonego ryzyka, co podkreśla utrzymującą się przepaść między europejską doskonałością akademicką a zdolnością kontynentu do przekucia tej doskonałości w suwerenną potęgę przemysłową.
Nvidia jest właścicielem osobliwości
Tworzy to osobliwą gospodarkę cyrkularną w ekosystemie Doliny Krzemowej. Amerykańskie fundusze venture zapewniają kapitał, który startupy wydają na sprzęt Nvidii, co następnie zawyża zyski Nvidii, co z kolei napędza szersze indeksy technologiczne, na których polegają partnerzy funduszy venture. Dla europejskich obserwatorów cykl ten jest frustrująco zamknięty. Choć unijny akt o czipach (EU Chips Act) ma na celu budowę lokalnych zdolności produkcyjnych, nie udało się jeszcze stworzyć takiej pętli sprzężenia zwrotnego między oprogramowaniem a sprzętem o wysokim ryzyku i wysokiej stopie zwrotu, która sprawia, że wycena na poziomie 4 miliardów dolarów dla czteromiesięcznej firmy jest możliwa w Palo Alto, ale nie do pomyślenia w Berlinie czy Paryżu.
Udział Richarda Sochera, byłego głównego naukowca w Salesforce, dodaje szczyptę komercyjnego pragmatyzmu do czegoś, co inaczej mogłoby wydawać się czysto akademickim ćwiczeniem. Kariera Sochera definiowana była przez praktyczne zastosowania przetwarzania języka naturalnego (NLP) w przedsiębiorstwach. Gdyby Recursive Superintelligence było jedynie laboratorium typu „moonshot”, mogłoby mieć trudności z pozyskaniem 500 milionów dolarów w obecnym środowisku stóp procentowych. Skala finansowania sugeruje przekonanie, że nawet częściowy sukces — sztuczna inteligencja, która potrafi jedynie zoptymalizować własne koszty wnioskowania lub oczyścić własne dane — byłby wart miliardy w ramach oszczędności operacyjnych dla firm z listy Fortune 500.
Czy „eksplozja inteligencji” jest wykonalnym celem inżynieryjnym?
Krytycy teorii rekurencyjnego samodoskonalenia wskazują na problem „malejących przychodów”. W większości dyscyplin inżynieryjnych im bardziej optymalizuje się system, tym trudniej o kolejne zyski. Silnik samochodowy o sprawności 98% jest znacznie trudniejszy do ulepszenia niż ten o sprawności 40%. Narracja o „osobliwości” (Singularity) zakłada, że inteligencja jest inna — że każdy przyrost zdolności poznawczych ułatwia osiągnięcie kolejnego. Pozostaje to hipotezą filozoficzną, a nie faktem inżynieryjnym.
Z punktu widzenia regulacyjnego, europejski akt o sztucznej inteligencji (AI Act) może wkrótce musieć zmierzyć się z firmami, które nie tylko „używają” SI, ale których produktem jest sam proces tworzenia. Jeśli model zaczyna przepisywać własny kod, kto ponosi odpowiedzialność za końcowy wynik? Pierwotni programiści? Dostawca mocy obliczeniowej? Ta niejednoznaczność prawna jest dokładnie tym, co sprawia, że inwestorzy venture capital w USA wzruszają ramionami, a ci w Niemczech sięgają po polisy ubezpieczeniowe. To fundamentalna różnica w apetycie na ryzyko, która wciąż definiuje podział atlantycki.
Szybkość tej transakcji — cztery miesiące od zera do pół miliarda — jest objawem rynku, który panicznie boi się przegapić kolejną zmianę definiującą epokę. Przypomina to wczesne dni wyścigu kosmicznego, gdzie celem niekoniecznie było posiadanie zrównoważonego modelu biznesowego, ale dotarcie do celu przed drugą stroną. W tym przypadku celem jest autonomiczna inteligencja, która może pracować 24 godziny na dobę, 7 dni w tygodniu nad własną ewolucją. Jeśli Recursive Superintelligence odniesie sukces, kwota 500 milionów dolarów będzie wyglądać jak błąd zaokrąglenia. Jeśli im się nie uda, zostanie to zapamiętane jako szczyt drugiej bańki sztucznej inteligencji — moment, w którym wyceniliśmy marzenie o maszynie potrafiącej samodzielnie myśleć wyżej niż większość firm, które faktycznie budują rzeczy dla ludzi.
Dolina Krzemowa zdecydowała, że najmądrzejszym sposobem na budowanie przyszłości jest pozwolenie, aby przyszłość budowała się sama. Europa wciąż czeka, aż wypełnione w trzech egzemplarzach formularze zostaną złożone w urzędzie.
Comments
No comments yet. Be the first!