A matemática por trás da avaliação é tão severa quanto especulativa. Com uma equipe de 20 pessoas e um valuation de US$ 4 bilhões, o mercado está efetivamente precificando cada funcionário em US$ 200 milhões. Isso supera as taxas máximas de "acq-hire" observadas durante a primeira onda do boom de aprendizado profundo há uma década. Isso sugere que os investidores — incluindo o braço de risco do Google e a empresa de semicondutores mais poderosa do mundo — não estão mais interessados em ganhos incrementais em Grandes Modelos de Linguagem (LLMs). Eles estão em busca da rampa de saída do desenvolvimento com intervenção humana (human-in-the-loop).
O código pode realmente escrever um código melhor?
A premissa central da Recursive Superintelligence é a busca por um ciclo de melhoria autônomo. O desenvolvimento atual de IA é um processo com gargalos: humanos projetam as arquiteturas, humanos curam os conjuntos de dados e humanos fornecem o Aprendizado por Reforço com Feedback Humano (RLHF) que evita que os modelos alucinem ou se tornem tóxicos. Este é um modelo de crescimento linear. A autoaperfeiçoamento recursivo visa um modelo exponencial, onde um modelo identifica suas próprias ineficiências algorítmicas e reescreve sua própria base de código para corrigi-las.
Engenheiros da área costumam chamar isso de "fechar o ciclo". A dificuldade reside na função objetivo. Se um modelo é incumbido de melhorar seu próprio raciocínio, ele precisa de uma maneira de verificar se sua versão "nova e aprimorada" é realmente melhor, em vez de apenas mais rápida ou mais confiante em seus erros. Sem um fundamento na realidade física ou na lógica formal — algo que os LLMs notoriamente não possuem —, o autoaperfeiçoamento recursivo muitas vezes leva ao "colapso do modelo", um ciclo de feedback onde a IA começa a amplificar suas próprias peculiaridades até que a saída se torne ruído estatístico. A equipe da Recursive, liderada por Richard Socher e Tim Rocktäschel, aposta que sua abordagem específica ao raciocínio simbólico ou descoberta automatizada pode contornar essa entropia.
A trajetória de Tim Rocktäschel na University College London e no Google DeepMind fornece uma pista sobre a direção técnica. Seu trabalho tem se concentrado frequentemente em aprendizado "aberto" — ambientes onde os agentes devem aprender a resolver tarefas sem que lhes digam quais são as tarefas. Em um contexto industrial europeu, esse é o tipo de pesquisa de alto nível que geralmente acaba sendo financiada por subsídios do Horizon Europe ou do Conselho Europeu de Pesquisa. Aqui, isso foi contornado pelo capital de risco dos EUA, destacando a lacuna persistente entre a excelência acadêmica europeia e a capacidade do continente de escalar essa excelência em poder industrial soberano.
A Nvidia é a proprietária da Singularidade
Isso cria uma economia circular peculiar no ecossistema do Vale do Silício. Os fundos de risco dos EUA fornecem o capital, que as startups gastam em hardware da Nvidia, o que, por sua vez, infla os ganhos da Nvidia, o que, por sua vez, impulsiona os índices tecnológicos mais amplos dos quais os sócios limitados (limited partners) dos fundos de risco dependem. Para observadores europeus, esse ciclo é frustrantemente fechado. Embora a Lei de Chips da UE vise construir capacidade de fabricação local, ainda não promoveu o tipo de ciclo de feedback software-hardware de alto risco e alto retorno que torna possível um valuation de US$ 4 bilhões para uma empresa de quatro meses em Palo Alto, mas impensável em Berlim ou Paris.
A inclusão de Richard Socher, ex-cientista-chefe da Salesforce, adiciona uma camada de pragmatismo comercial ao que poderia, de outra forma, parecer um exercício puramente acadêmico. A carreira de Socher foi definida por fazer o processamento de linguagem natural (PLN) funcionar para as empresas. Se a Recursive Superintelligence fosse apenas um laboratório de "projetos audaciosos" (moonshots), ela teria dificuldade em arrecadar US$ 500 milhões neste ambiente de taxas de juros. A escala do financiamento sugere que há uma convicção de que mesmo um sucesso parcial — uma IA que possa apenas otimizar seus próprios custos de inferência ou limpar seus próprios dados — valeria bilhões em economia operacional para as empresas da Fortune 500.
A "explosão de inteligência" é uma meta de engenharia viável?
Os críticos da teoria do autoaperfeiçoamento recursivo apontam para o problema dos "rendimentos decrescentes". Na maioria das disciplinas de engenharia, quanto mais você otimiza um sistema, mais difícil se torna encontrar ganhos adicionais. Um motor de carro que é 98% eficiente é significativamente mais difícil de melhorar do que um que é 40% eficiente. A narrativa da "Singularidade" assume que a inteligência é diferente — que cada incremento na capacidade cognitiva torna o próximo incremento mais fácil de alcançar. Isso permanece como uma hipótese filosófica, não um fato de engenharia.
Do ponto de vista regulatório, a Lei de IA na Europa pode em breve ter que lidar com empresas que não apenas "usam" IA, mas empresas cujo produto é o próprio ato da criação. Se um modelo começa a reescrever seu próprio código, quem é responsável pelo resultado final? Os programadores originais? O fornecedor de computação? Essa ambiguidade jurídica é exatamente o tipo de coisa que faz os capitalistas de risco nos EUA darem de ombros e aqueles na Alemanha procurarem suas apólices de seguro. É uma diferença fundamental no apetite ao risco que continua a definir a divisão atlântica.
A velocidade deste negócio — quatro meses do zero a meio bilhão — é um sintoma de um mercado que está aterrorizado com a possibilidade de perder a próxima mudança que definirá a época. Isso ecoa os primeiros dias da corrida espacial, onde o objetivo não era necessariamente ter um modelo de negócios sustentável, mas chegar ao destino antes do outro lado. Neste caso, o destino é uma inteligência autônoma que pode trabalhar 24 horas por dia, 7 dias por semana em sua própria evolução. Se a Recursive Superintelligence obtiver sucesso, o preço de US$ 500 milhões parecerá um erro de arredondamento. Se falharem, será lembrado como o pico da Segunda Bolha de IA — um momento em que valorizamos o sonho de uma máquina que poderia pensar por si mesma a um preço mais alto do que a maioria das empresas que realmente constroem coisas para as pessoas.
O Vale do Silício decidiu que a maneira mais inteligente de construir o futuro é deixar que o futuro se construa sozinho. A Europa ainda está esperando que a papelada seja preenchida em triplicata.
Comments
No comments yet. Be the first!