Is AGI er al? De nieuwe claim van UCSD

Wetenschap
Is AGI Here? The New UCSD Claim
Vier wetenschappers van UC San Diego stellen in Nature dat algemene kunstmatige intelligentie (AGI) al aanwezig is in de huidige grote taalmodellen; experts en stemmen uit de industrie spreken dit tegen. Deze analyse ontrafelt wat AGI precies inhoudt, het gepresenteerde bewijs, de tegenargumenten en waarom dit er nu toe doet.

Artificiële algemene intelligentie nu al hier? Het bewijs en de definities van UC San Diego

Ter ondersteuning van hun bewering dat AGI is gearriveerd, wijzen zij op gedrag: moderne grote taalmodellen (LLM's) passeren routinematig de conversationele drempels van de Turing-test en kunnen in benchmarktaken de prestaties van menselijke experts op veel gebieden evenaren of overtreffen. De auteurs halen studies aan waaruit blijkt dat recente modellen in Turing-test-evaluaties veel vaker dan op basis van toeval als menselijk werden beoordeeld. Zij merken op dat we normaal gesproken algemene intelligentie aan mensen toeschrijven op basis van soortgelijk waarneembaar gedrag — we kijken niet in menselijke hersenen om begrip vast te stellen.

Cruciaal is dat de UCSD-groep algemene intelligentie onderscheidt van superintelligentie en van mensachtige cognitie. Hun argument vereist niet dat een machine leert zoals een kind leert, dat het een menselijk lichaam bezit, of dat het foutloos is. In plaats daarvan stelt het de vraag: is er, gezien de standaarden die we voor andere denkers gebruiken, overtuigend gedragsmatig bewijs dat sommige machines de flexibele, domeinoverschrijdende competentie vertonen die we associëren met algemene intelligentie? Hun antwoord: ja, in bepaalde opzichten.

Artificiële algemene intelligentie hier? Stemmen uit de industrie en het tegengeluid

Leiders uit de industrie gooien olie op het vuur. Sommige topmensen — waaronder prominente CEO's van cloud- en AI-platforms — hebben publiekelijk gezegd dat zij de huidige systemen als AGI beschouwen of dat de grens inmiddels feitelijk poreus is. Die beweringen zijn vaak een verkorte weergave van commercieel vertrouwen: modellen kunnen taal produceren, redeneren over documenten, code schrijven en workflows uitvoeren wanneer ze worden geschakeld in "agents". Voor klanten en investeerders zijn deze capaciteiten nu al economisch transformatief.

Maar niet iedereen accepteert dat gedragsmatige gelijkwaardigheid gelijkstaat aan AGI. Critici voeren aan dat het beschrijven van de huidige LLM's als algemeen intelligent belangrijke onderscheiden doet vervagen. Technische bezwaren vallen uiteen in enkele brede categorieën: modellen die louter statistisch patronen matchen zonder causale modellen van de wereld; systemen die hallucineren of zelfverzekerde maar onjuiste outputs produceren; architecturen die geen persistente doelen, agency of belichaamde interactie hebben; en systemen die vele malen meer data nodig hebben dan mensen om bekwaamheid te bereiken. Voor veel scepici zijn die verschillen niet cosmetisch — ze onthullen fundamentele gaten tussen de huidige AI en een veerkrachtige, autonome algemene intelligentie.

Hoe onderzoekers AGI definiëren — en waarom definities belangrijk zijn

Wat is artificiële algemene intelligentie precies? Definities variëren, maar twee ideeën keren in serieuze debatten telkens terug. De ene benadert AGI als het praktische vermogen om bijna alle cognitieve taken uit te voeren die een mens kan: taal, wiskunde, planning, perceptie, probleemoplossing, creatief en wetenschappelijk denken. Een andere, meer formele onderzoekslijn zoekt naar een universele meetstaf voor probleemoplossend vermogen over een breed scala aan taken (een theoretisch programma dat wordt gezien in werk aan "universele intelligentie").

Degenen die stellen dat AGI nog steeds theoretisch is, benadrukken het mechanisme: een systeem dat flexibel doelen kan vormen, leerervaringen kan overdragen tussen zeer verschillende domeinen met weinig data, fysiek kan interacteren met een omgeving en kan leren van die voortdurende interactie. Zij wijzen erop dat de huidige modellen, hoe krachtig ook, vaak betrouwbaar causaal redeneren missen, veel menselijke ondersteuning nodig hebben om zich als een agent te gedragen, en onvoorspelbaar falen buiten hun trainingsdata. Voorstanders werpen daar tegenin dat het inconsistent is om van machines bewijs te eisen dat we nooit van mensen vragen — zoals het inspecteren van interne processen.

Waar de AI van vandaag de menselijke vermogens evenaart — en waar niet

  • Overeenkomsten: vloeiend taalgebruik, samenvatten, code schrijven, veel gestandaardiseerde taken, domeinspecifiek expertgedrag wanneer gefinetuned of uitgebreid met tools.
  • Zwakke punten: onbetrouwbare feitelijke basis ("hallucinaties"), gebrekkige out-of-distribution generalisatie, beperkte autonome planning over de lange termijn wanneer losgekoppeld, en een matige sample-efficiëntie vergeleken met menselijke baby's.
  • Ontbrekende ingrediënten volgens sommige experts: persistente doelen en agency, belichaamd sensomotorisch leren, causale modellen die counterfactual redeneren ondersteunen zonder enorme hoeveelheden data, en transparante mechanistische verklaringen voor hoe capaciteiten ontstaan.

Is AGI al hier of slechts binnen handbereik?

Hoe dicht zijn onderzoekers bij het bereiken van artificiële algemene intelligentie? Het veld is verdeeld. Sommige roadmaps voorzien incrementele verbeteringen en agentsystemen — betrouwbaarder, multimodaal en geïntegreerd — die ons binnen een decennium naar robuuste AGI leiden. Anderen houden vol dat de huidige architecturen evolutionair oppervlakkig zijn en dat er nieuwe conceptuele doorbraken nodig zullen zijn. Omdat huidige systemen hun ontwerpers nu al verrassen, blijft het voorspellen van een tijdlijn beladen.

Verschillen tussen AI en AGI in de praktijk

Het onderscheid tussen de AI die u vandaag gebruikt en een hypothetische AGI is zowel technisch als filosofisch. Narrow AI blinkt uit in een afgebakend probleem bij veel data; AGI impliceert algemene probleemoplossing over domeinen heen met transfer, planning en aanpassing. In de praktijk betekent dat een verschil in autonomie (het vermogen om doelen te vormen en na te streven zonder menselijke prompts), overdraagbaarheid (een in de ene context geleerde vaardigheid gebruiken in een totaal andere) en robuustheid (stabiele prestaties in nieuwe, adversariële of data-arme omgevingen).

Risico's, voordelen en beleidsimplicaties

Of je het nu vandaag AGI noemt of over vijf jaar, de opkomst van systemen die consistent een breed scala aan cognitieve taken kunnen uitvoeren, heeft maatschappelijke gevolgen. De voordelen zijn reëel en meetbaar: automatisering van complexe analyses, verbeterde synthese van wetenschappelijke literatuur, nieuwe industriële automatiseringsmodellen, ondersteuning bij medische besluitvorming en snellere R&D-cycli. Risico's variëren van desinformatie versterkt door vloeiende generatie, tot economische verdringing, veiligheidsfouten wanneer modellen de ruimte krijgen om te handelen, en vragen over verantwoording wanneer ondoorzichtige modellen ingrijpende beslissingen nemen.

Die mix verklaart waarom governance, transparantie, red teaming en gereguleerde inzet urgente prioriteiten zijn, zelfs voor scepici. De centrale uitdaging voor beleid is niet alleen technische veiligheid, maar ook economisch en sociaal beleid om werknemers, consumenten en democratische instituties te beschermen terwijl de voordelen worden benut.

Wat het debat ons vertelt over wetenschap en samenleving

Deze episode — een commentaar in Nature, steunbetuigingen uit de industrie en een tegenstroom van sceptische boeken en opiniestukken — onderstreept twee feiten. Ten eerste: definities doen ertoe. Zeggen dat "AGI er is" is evenzeer een conceptuele zet als een empirische claim. Ten tweede: de onzekerheid over het mechanisme is reëel en heeft gevolgen. We beschikken over opmerkelijke gedragssystemen waarvan we de interne logica niet volledig begrijpen; die combinatie van kracht en ondoorzichtigheid verklaart zowel het enthousiasme als de ongerustheid.

Vooralsnog is dit de meest verdedigbare houding: we bevinden ons in een overgangstijdperk. Sommige systemen leveren al prestaties op menselijk niveau bij specifieke en veel domeinoverschrijdende taken; andere blijven beperkt in autonomie, causaal begrip en belichaamd leren. Of we die staat "AGI" noemen is belangrijk voor de retoriek, maar de beleidsreactie zou hetzelfde moeten zijn: investeer in rigoureuze evaluatie, eis transparantie en veiligheid, en bereid instituties voor op snelle maatschappelijke effecten.

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Wat is kunstmatige algemene intelligentie (AGI) precies?
A Kunstmatige algemene intelligentie (AGI) is een hypothetisch type AI dat menselijke vermogens kan evenaren of overtreffen in vrijwel alle cognitieve taken, waaronder redeneren, plannen, leren en communicatie in natuurlijke taal. In tegenstelling tot beperkte AI (narrow AI), generaliseert AGI kennis, draagt het vaardigheden over tussen domeinen en lost het nieuwe problemen op zonder taakspecifieke herprogrammering. Het streeft ernaar de veelzijdige, aanpasbare intelligentie van de menselijke geest te repliceren.
Q Is AGI er al of is het nog steeds theoretisch?
A AGI is er nog niet; het blijft hypothetisch en theoretisch, waarbij momenteel geen enkel systeem de algemene intelligentie op menselijk niveau in alle domeinen evenaart. Huidige AI, zoals grote taalmodellen, blinkt uit in specifieke taken, maar mist echt begrip, gezond verstand of het vermogen om zich aan te passen aan volledig nieuwe contexten zonder hertraining. Claims over het bereiken van AGI, zoals een recente bewering van de UCSD, worden niet ondersteund door consensus binnen het vakgebied.
Q Hoe dichtbij zijn onderzoekers bij het bereiken van kunstmatige algemene intelligentie?
A Onderzoekers streven actief naar AGI via benaderingen zoals neurale netwerken en machine learning, maar het blijft een ver weg gelegen doel zonder duidelijke tijdlijn voor voltooiing. Vooruitgang in beperkte AI, zoals GPT-modellen, toont indrukwekkende vermogens op beperkte gebieden, maar fundamentele uitdagingen zoals abstract redeneren, causaliteit en zelfverbetering blijven bestaan. De consensus onder experts is dat AGI theoretisch is en mogelijk nog decennia op zich laat wachten.
Q Wat zijn de belangrijkste verschillen tussen AI en AGI?
A Beperkte AI (of ANI) blinkt uit in specifieke, goed gedefinieerde taken zoals beeldherkenning of vertaling, maar kan niet generaliseren buiten zijn training. AGI daarentegen voert elke intellectuele taak uit die een mens kan, met veelzijdigheid, aanpassingsvermogen, zelfverbetering en menselijk begrip in diverse domeinen zonder herprogrammering. Huidige AI vertrouwt op vooraf gedefinieerde parameters, terwijl AGI zichzelf zou onderwijzen en nieuwe problemen autonoom zou aanpakken.
Q Wat zijn de potentiële risico's en voordelen van AGI voor de samenleving?
A AGI zou enorme voordelen kunnen bieden, zoals het versnellen van wetenschappelijke doorbraken, het oplossen van complexe wereldwijde problemen en het verhogen van de economische productiviteit door autonome innovatie. Risico's omvatten echter banenverlies, verlies van menselijke controle, existentiële bedreigingen door niet-gealigneerde superintelligente systemen en ethische zorgen over besluitvorming op kritieke gebieden. De samenleving moet prioriteit geven aan veiligheidsonderzoek om deze gevaren te beperken naarmate de ontwikkeling vordert.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!