L'AGI est-elle déjà là ? La nouvelle thèse de l'UC San Diego

Science
Is AGI Here? The New UCSD Claim
Quatre chercheurs de l'UC San Diego soutiennent dans la revue Nature que l'intelligence artificielle générale est déjà présente dans les modèles de langage actuels ; un avis que contestent de nombreux experts et acteurs de l'industrie. Cette analyse examine la définition de l'AGI, les preuves avancées, les contre-arguments et les enjeux actuels.

L'intelligence artificielle générale est-elle déjà là ? Les preuves et les définitions de l'UC San Diego

Pour soutenir leur affirmation selon laquelle l'IAG est arrivée, ils mettent en avant le comportement : les modèles de langage étendus (LLM) modernes franchissent régulièrement les seuils conversationnels de type Turing et, lors de tâches de référence (benchmarks), peuvent atteindre ou dépasser les performances d'experts humains dans de nombreux domaines. Les auteurs citent des études montrant que des modèles récents ont été jugés humains lors d'évaluations de type Turing bien plus souvent que ne le voudrait le hasard, et ils notent que nous attribuons normalement une intelligence générale aux humains sur la base d'un comportement observable similaire — nous ne scrutons pas l'intérieur du cerveau humain pour en juger la compréhension.

Crucialement, le groupe de l'UCSD distingue l'intelligence générale de la superintelligence et de la cognition de type humain. Leur argument n'exige pas qu'une machine apprenne comme un enfant, qu'elle possède un corps de forme humaine ou qu'elle soit infaillible. Au lieu de cela, il pose la question suivante : compte tenu des critères que nous utilisons pour d'autres esprits, existe-t-il des preuves comportementales convaincantes que certaines machines font preuve de la compétence flexible et transdisciplinaire que nous associons à l'intelligence générale ? Leur réponse : oui, à certains égards.

L'intelligence artificielle générale est-elle déjà là ? Voix de l'industrie et contre-discours

Les leaders de l'industrie alimentent le débat. Certains dirigeants — y compris d'éminents PDG de plateformes de cloud et d'IA — ont déclaré publiquement qu'ils considéraient que les systèmes actuels avaient atteint l'IAG ou que la frontière était désormais effectivement poreuse. Ces affirmations sont souvent un raccourci pour exprimer une confiance commerciale : les modèles peuvent produire du langage, raisonner sur des documents, écrire du code et exécuter des flux de travail lorsqu'ils sont enchaînés pour former des « agents ». Pour les clients et les investisseurs, ces capacités sont déjà économiquement transformatrices.

Mais tout le monde n'accepte pas que la parité comportementale soit synonyme d'IAG. Les critiques soutiennent que décrire les LLM contemporains comme étant généralement intelligents efface des distinctions importantes. Les objections techniques se classent en quelques grandes catégories : des modèles qui se contentent d'une mise en correspondance de motifs statistiques sans modèles causaux du monde ; des systèmes qui hallucinent ou produisent des résultats affirmés mais faux ; des architectures qui manquent d'objectifs persistants, d'agentivité ou d'interaction incarnée ; et des systèmes qui nécessitent des ordres de grandeur de données supérieurs à ceux des humains pour atteindre une compétence. Pour de nombreux sceptiques, ces différences ne sont pas cosmétiques — elles révèlent des lacunes fondamentales entre l'IA actuelle et une intelligence générale autonome et résiliente.

Comment les chercheurs définissent l'IAG — et pourquoi les définitions comptent

Qu'est-ce exactement que l'intelligence artificielle générale ? Les définitions varient, mais deux idées reviennent dans les débats sérieux. L'une traite l'IAG comme la capacité pratique d'accomplir presque toutes les tâches cognitives qu'un humain peut réaliser : langage, mathématiques, planification, perception, résolution de problèmes, pensée créative et scientifique. Une autre lignée de recherche, plus formelle, cherche une métrique universelle de la capacité de résolution de problèmes à travers des distributions de tâches (un programme théorique que l'on retrouve dans les travaux sur l'« intelligence universelle »).

Ceux qui affirment que l'IAG est encore théorique mettent l'accent sur le mécanisme : un système capable de formuler des objectifs de manière flexible, de transférer l'apprentissage entre des domaines très différents avec peu de données, de s'engager physiquement avec un environnement et d'apprendre de cette interaction continue. Ils soulignent que les modèles actuels, aussi puissants soient-ils, manquent souvent d'un raisonnement causal fiable, nécessitent un encadrement humain important pour se comporter de manière agentive et échouent de manière imprévisible en dehors de leur distribution d'entraînement. Les partisans répliquent qu'exiger des machines des preuves que nous n'exigeons jamais des humains — par exemple, scruter les processus internes — est incohérent.

Là où l'IA d'aujourd'hui égale les capacités humaines — et là où elle échoue

  • Points forts : langage fluide, synthèse, écriture de code, nombreuses tâches standardisées, comportement d'expert spécifique à un domaine lorsqu'elle est affinée ou augmentée par des outils.
  • Faiblesses : ancrage factuel peu fiable (« hallucinations »), généralisation hors distribution fragile, planification autonome à long horizon limitée lorsqu'elle est débridée, et faible efficacité d'échantillonnage par rapport aux nourrissons humains.
  • Ingrédients manquants souhaités par certains experts : objectifs persistants et agentivité, apprentissage sensorimoteur incarné, modèles causaux supportant le raisonnement contrefactuel sans données massives, et explications mécanistes transparentes sur l'émergence des capacités.

L'IAG est-elle déjà là ou seulement à portée de main ?

À quel point les chercheurs sont-ils proches de réaliser l'intelligence artificielle générale ? Le domaine est divisé. Certaines feuilles de route prévoient que des améliorations progressives et des systèmes agentifs — plus fiables, multimodaux et intégrés — nous mèneront à une IAG robuste d'ici une décennie. D'autres insistent sur le fait que les architectures actuelles sont évolutionnairement limitées et que de nouvelles percées conceptuelles seront nécessaires. Comme les systèmes actuels surprennent déjà leurs concepteurs, prédire un calendrier reste périlleux.

Différences entre IA et IAG, en pratique

La distinction entre l'IA que vous utilisez aujourd'hui et une IAG hypothétique est à la fois technique et philosophique. L'IA étroite excelle dans un problème délimité avec beaucoup de données ; l'IAG implique une résolution de problèmes générale à travers les domaines avec transfert, planification et adaptation. En pratique, cela signifie une différence d'autonomie (la capacité de former et de poursuivre des objectifs sans invites humaines), de transférabilité (utiliser une capacité apprise dans un contexte dans un autre radicalement différent) et de robustesse (performance stable dans des environnements nouveaux, adverses ou à faibles données).

Risques, avantages et implications politiques

Que vous l'appeliez IAG aujourd'hui ou dans cinq ans, l'émergence de systèmes capables d'accomplir de manière cohérente un large éventail de tâches cognitives a des conséquences sociales. Les avantages sont réels et mesurables : automatisation d'analyses complexes, meilleure synthèse de la littérature scientifique, nouveaux modèles d'automatisation industrielle, aide à la décision médicale et cycles de R&D plus rapides. Les risques vont de la désinformation amplifiée par une génération fluide, au déplacement économique, aux échecs de sécurité lorsque les modèles reçoivent une latitude d'action, jusqu'aux questions sur la responsabilité lorsque des modèles opaques prennent des décisions lourdes de conséquences.

Ce mélange explique pourquoi la gouvernance, la transparence, le « red teaming » et le déploiement réglementé sont des priorités urgentes, même pour les sceptiques. Le défi politique central n'est pas seulement l'ingénierie de la sécurité technique, mais aussi une politique économique et sociale visant à protéger les travailleurs, les consommateurs et les institutions démocratiques tout en captant les bénéfices.

Ce que le débat nous dit sur la science et la société

Cet épisode — un commentaire dans Nature, les approbations de l'industrie et une contre-littérature de livres et de tribunes sceptiques — souligne deux faits. Premièrement, les définitions comptent : dire que « l'IAG est là » est autant un positionnement conceptuel qu'une affirmation empirique. Deuxièmement, l'incertitude sur le mécanisme est réelle et lourde de conséquences. Nous disposons de systèmes comportementaux remarquables dont nous ne comprenons pas entièrement la logique interne ; cette combinaison de puissance et d'opacité explique à la fois l'enthousiasme et l'alarme.

Pour l'instant, la position la plus défendable est la suivante : nous sommes dans une ère de transition. Certains systèmes atteignent déjà des performances de niveau humain sur des tâches étroites et de nombreuses tâches transdisciplinaires ; d'autres restent limités en matière d'autonomie, de compréhension causale et d'apprentissage incarné. Que nous appelions cet état « IAG » importe pour la rhétorique, mais la réponse politique devrait être la même : investir dans une évaluation rigoureuse, exiger transparence et sécurité, et préparer les institutions à des effets sociaux rapides.

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Qu'est-ce que l'intelligence artificielle générale (IAG) exactement ?
A L'intelligence artificielle générale (IAG) est un type hypothétique d'IA capable d'égaler ou de surpasser les capacités humaines dans presque toutes les tâches cognitives, y compris le raisonnement, la planification, l'apprentissage et la communication en langage naturel. Contrairement à l'IA étroite, l'IAG généralise les connaissances, transfère les compétences d'un domaine à l'autre et résout de nouveaux problèmes sans reprogrammation spécifique à la tâche. Elle vise à reproduire l'intelligence polyvalente et adaptable de l'esprit humain.
Q L'IAG est-elle déjà là ou est-elle encore théorique ?
A L'IAG n'est pas encore là ; elle reste hypothétique et théorique, aucun système n'égalant actuellement l'intelligence générale de niveau humain dans tous les domaines. L'IA actuelle, comme les grands modèles de langage, excelle dans des tâches spécifiques mais manque d'une compréhension réelle, de bon sens ou d'adaptabilité à des contextes entièrement nouveaux sans réentraînement. Les affirmations concernant la réalisation de l'IAG, comme toute assertion récente de l'UCSD, ne sont pas étayées par un consensus dans le domaine.
Q À quel point les chercheurs sont-ils proches de réaliser l'intelligence artificielle générale ?
A Les chercheurs poursuivent activement l'IAG par des approches telles que les réseaux de neurones et l'apprentissage automatique, mais cela reste un objectif lointain sans calendrier précis de réalisation. Les progrès de l'IA étroite, comme les modèles GPT, montrent des capacités impressionnantes dans des domaines limités, pourtant des défis fondamentaux tels que le raisonnement abstrait, la causalité et l'auto-amélioration persistent. Le consensus des experts considère l'IAG comme théorique, potentiellement à plusieurs décennies.
Q Quelles sont les principales différences entre l'IA et l'IAG ?
A L'IA étroite (ou ANI) excelle dans des tâches spécifiques et bien définies comme la reconnaissance d'images ou la traduction de langues, mais ne peut pas généraliser au-delà de son entraînement. L'IAG, en revanche, accomplit n'importe quelle tâche intellectuelle qu'un humain peut réaliser, avec polyvalence, adaptabilité, auto-amélioration et une compréhension de type humain dans divers domaines sans reprogrammation. L'IA actuelle repose sur des paramètres prédéfinis, tandis que l'IAG s'auto-enseignerait et gérerait de nouveaux problèmes de manière autonome.
Q Quels sont les risques et avantages potentiels de l'IAG pour la société ?
A L'IAG pourrait apporter d'immenses avantages, tels que l'accélération des percées scientifiques, la résolution de problèmes mondiaux complexes et la stimulation de la productivité économique grâce à l'innovation autonome. Cependant, les risques incluent le déplacement d'emplois, la perte de contrôle humain, des menaces existentielles provenant de systèmes superintelligents désalignés et des préoccupations éthiques concernant la prise de décision dans des domaines critiques. La société doit prioriser la recherche sur la sécurité pour atténuer ces dangers à mesure que le développement progresse.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!