Superinteligência recursiva e o funcionário de US$ 200 milhões

I.A.
Recursive Superintelligence and the $200 Million Employee
Uma startup com 120 dias de vida garantiu US$ 500 milhões para buscar o 'Santo Graal' da IA: uma máquina que programa as suas próprias atualizações sem intervenção humana.

A matemática por trás da avaliação é tão severa quanto especulativa. Com uma equipe de 20 pessoas e um valuation de US$ 4 bilhões, o mercado está efetivamente precificando cada funcionário em US$ 200 milhões. Isso supera as taxas máximas de "acq-hire" observadas durante a primeira onda do boom de aprendizado profundo há uma década. Isso sugere que os investidores — incluindo o braço de risco do Google e a empresa de semicondutores mais poderosa do mundo — não estão mais interessados em ganhos incrementais em Grandes Modelos de Linguagem (LLMs). Eles estão em busca da rampa de saída do desenvolvimento com intervenção humana (human-in-the-loop).

O código pode realmente escrever um código melhor?

A premissa central da Recursive Superintelligence é a busca por um ciclo de melhoria autônomo. O desenvolvimento atual de IA é um processo com gargalos: humanos projetam as arquiteturas, humanos curam os conjuntos de dados e humanos fornecem o Aprendizado por Reforço com Feedback Humano (RLHF) que evita que os modelos alucinem ou se tornem tóxicos. Este é um modelo de crescimento linear. A autoaperfeiçoamento recursivo visa um modelo exponencial, onde um modelo identifica suas próprias ineficiências algorítmicas e reescreve sua própria base de código para corrigi-las.

Engenheiros da área costumam chamar isso de "fechar o ciclo". A dificuldade reside na função objetivo. Se um modelo é incumbido de melhorar seu próprio raciocínio, ele precisa de uma maneira de verificar se sua versão "nova e aprimorada" é realmente melhor, em vez de apenas mais rápida ou mais confiante em seus erros. Sem um fundamento na realidade física ou na lógica formal — algo que os LLMs notoriamente não possuem —, o autoaperfeiçoamento recursivo muitas vezes leva ao "colapso do modelo", um ciclo de feedback onde a IA começa a amplificar suas próprias peculiaridades até que a saída se torne ruído estatístico. A equipe da Recursive, liderada por Richard Socher e Tim Rocktäschel, aposta que sua abordagem específica ao raciocínio simbólico ou descoberta automatizada pode contornar essa entropia.

A trajetória de Tim Rocktäschel na University College London e no Google DeepMind fornece uma pista sobre a direção técnica. Seu trabalho tem se concentrado frequentemente em aprendizado "aberto" — ambientes onde os agentes devem aprender a resolver tarefas sem que lhes digam quais são as tarefas. Em um contexto industrial europeu, esse é o tipo de pesquisa de alto nível que geralmente acaba sendo financiada por subsídios do Horizon Europe ou do Conselho Europeu de Pesquisa. Aqui, isso foi contornado pelo capital de risco dos EUA, destacando a lacuna persistente entre a excelência acadêmica europeia e a capacidade do continente de escalar essa excelência em poder industrial soberano.

A Nvidia é a proprietária da Singularidade

Isso cria uma economia circular peculiar no ecossistema do Vale do Silício. Os fundos de risco dos EUA fornecem o capital, que as startups gastam em hardware da Nvidia, o que, por sua vez, infla os ganhos da Nvidia, o que, por sua vez, impulsiona os índices tecnológicos mais amplos dos quais os sócios limitados (limited partners) dos fundos de risco dependem. Para observadores europeus, esse ciclo é frustrantemente fechado. Embora a Lei de Chips da UE vise construir capacidade de fabricação local, ainda não promoveu o tipo de ciclo de feedback software-hardware de alto risco e alto retorno que torna possível um valuation de US$ 4 bilhões para uma empresa de quatro meses em Palo Alto, mas impensável em Berlim ou Paris.

A inclusão de Richard Socher, ex-cientista-chefe da Salesforce, adiciona uma camada de pragmatismo comercial ao que poderia, de outra forma, parecer um exercício puramente acadêmico. A carreira de Socher foi definida por fazer o processamento de linguagem natural (PLN) funcionar para as empresas. Se a Recursive Superintelligence fosse apenas um laboratório de "projetos audaciosos" (moonshots), ela teria dificuldade em arrecadar US$ 500 milhões neste ambiente de taxas de juros. A escala do financiamento sugere que há uma convicção de que mesmo um sucesso parcial — uma IA que possa apenas otimizar seus próprios custos de inferência ou limpar seus próprios dados — valeria bilhões em economia operacional para as empresas da Fortune 500.

A "explosão de inteligência" é uma meta de engenharia viável?

Os críticos da teoria do autoaperfeiçoamento recursivo apontam para o problema dos "rendimentos decrescentes". Na maioria das disciplinas de engenharia, quanto mais você otimiza um sistema, mais difícil se torna encontrar ganhos adicionais. Um motor de carro que é 98% eficiente é significativamente mais difícil de melhorar do que um que é 40% eficiente. A narrativa da "Singularidade" assume que a inteligência é diferente — que cada incremento na capacidade cognitiva torna o próximo incremento mais fácil de alcançar. Isso permanece como uma hipótese filosófica, não um fato de engenharia.

Do ponto de vista regulatório, a Lei de IA na Europa pode em breve ter que lidar com empresas que não apenas "usam" IA, mas empresas cujo produto é o próprio ato da criação. Se um modelo começa a reescrever seu próprio código, quem é responsável pelo resultado final? Os programadores originais? O fornecedor de computação? Essa ambiguidade jurídica é exatamente o tipo de coisa que faz os capitalistas de risco nos EUA darem de ombros e aqueles na Alemanha procurarem suas apólices de seguro. É uma diferença fundamental no apetite ao risco que continua a definir a divisão atlântica.

A velocidade deste negócio — quatro meses do zero a meio bilhão — é um sintoma de um mercado que está aterrorizado com a possibilidade de perder a próxima mudança que definirá a época. Isso ecoa os primeiros dias da corrida espacial, onde o objetivo não era necessariamente ter um modelo de negócios sustentável, mas chegar ao destino antes do outro lado. Neste caso, o destino é uma inteligência autônoma que pode trabalhar 24 horas por dia, 7 dias por semana em sua própria evolução. Se a Recursive Superintelligence obtiver sucesso, o preço de US$ 500 milhões parecerá um erro de arredondamento. Se falharem, será lembrado como o pico da Segunda Bolha de IA — um momento em que valorizamos o sonho de uma máquina que poderia pensar por si mesma a um preço mais alto do que a maioria das empresas que realmente constroem coisas para as pessoas.

O Vale do Silício decidiu que a maneira mais inteligente de construir o futuro é deixar que o futuro se construa sozinho. A Europa ainda está esperando que a papelada seja preenchida em triplicata.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q O que é autoraprimoramento recursivo no desenvolvimento de IA?
A O autoraprimoramento recursivo refere-se a um ciclo autônomo em que um modelo de IA identifica ineficiências em seu próprio código e se reescreve para melhorar o desempenho. Ao contrário do desenvolvimento tradicional, que depende de projetistas humanos e conjuntos de dados curados, essa abordagem busca criar um modelo de crescimento exponencial. O objetivo é fechar o ciclo permitindo que a máquina programe suas próprias atualizações sem intervenção humana, potencialmente levando a uma explosão de inteligência rápida e autossustentável.
Q Por que os investidores atribuíram uma avaliação de US$ 4 bilhões a uma startup de quatro meses?
A Os investidores avaliam a empresa em US$ 4 bilhões devido ao seu foco em superinteligência recursiva, uma tecnologia que poderia contornar as limitações de crescimento linear do desenvolvimento de IA liderado por humanos. Com uma equipe pequena de 20 pessoas, essa avaliação equivale a aproximadamente US$ 200 milhões por funcionário. Investidores como Google e Nvidia acreditam que mesmo um sucesso parcial na automação da otimização de IA poderia gerar economias operacionais massivas e uma vantagem competitiva significativa na corrida pela inteligência de máquina autônoma.
Q Quais desafios técnicos impedem a IA de reescrever seu próprio código com sucesso?
A Um grande risco técnico é o colapso do modelo, onde um ciclo de feedback faz com que a IA amplifique seus próprios erros até que a saída se torne ruído estatístico. Como os modelos de linguagem grande muitas vezes carecem de base em lógica formal, eles podem ter dificuldade em verificar se o novo código é realmente superior. Sem uma função objetivo robusta, o sistema corre o risco de se tornar mais rápido ou mais confiante enquanto produz resultados falhos. Isso torna o fechamento do ciclo sem supervisão humana extremamente difícil.
Q Como o clima de investimento para startups de IA difere entre os Estados Unidos e a Europa?
A O clima de investimento reflete uma lacuna significativa no apetite ao risco entre as duas regiões. Nos Estados Unidos, os capitalistas de risco estão dispostos a financiar projetos de alto risco com avaliações de bilhões de dólares para evitar perder mudanças que definem uma época. Por outro lado, o desenvolvimento europeu é frequentemente retardado pela cautela regulatória, como o AI Act, e pela dependência de bolsas acadêmicas. Isso leva a um cenário onde pesquisadores formados na Europa frequentemente garantem financiamento americano para escalar suas inovações de alto nível.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!