Ist AGI bereits Realität? Die neue These der UC San Diego

Wissenschaft
Is AGI Here? The New UCSD Claim
Vier Wissenschaftler der UC San Diego argumentieren in Nature, dass künstliche allgemeine Intelligenz bereits in heutigen großen Sprachmodellen vorhanden ist; Experten und Branchenvertreter widersprechen. Diese Analyse erläutert, was AGI bedeutet, welche Belege angeführt werden, welche Gegenargumente es gibt und warum das Thema jetzt von Bedeutung ist.

Künstliche allgemeine Intelligenz bereits da? Die Belege und Definitionen der UC San Diego

Um ihre Behauptung zu stützen, dass die AGI bereits Einzug gehalten hat, verweisen sie auf das Verhalten: Moderne große Sprachmodelle (LLMs) bestehen routinemäßig Turing-ähnliche Konversationsschwellen und können in Benchmark-Aufgaben in vielen Bereichen das Niveau menschlicher Experten erreichen oder übertreffen. Die Autoren zitieren Studien, wonach neuere Modelle in Evaluierungen im Turing-Stil weitaus häufiger als durch bloßen Zufall als menschlich beurteilt wurden. Sie weisen zudem darauf hin, dass wir Menschen die allgemeine Intelligenz normalerweise auf der Grundlage eines ähnlichen beobachtbaren Verhaltens zuschreiben – wir blicken nicht in das menschliche Gehirn, um über das Verständnis zu entscheiden.

Entscheidend ist, dass die UCSD-Gruppe die allgemeine Intelligenz von Superintelligenz und von menschenähnlicher Kognition abgrenzt. Ihr Argument setzt nicht voraus, dass eine Maschine so lernt, wie ein Kind lernt, dass sie einen menschlichen Körper besitzt oder dass sie fehlerfrei ist. Stattdessen stellt sie die Frage: Gibt es angesichts der Maßstäbe, die wir für andere Verstandeswesen anlegen, überzeugende Verhaltensbelege dafür, dass einige Maschinen die flexible, domänenübergreifende Kompetenz zeigen, die wir mit allgemeiner Intelligenz assoziieren? Ihre Antwort: Ja, in gewisser Hinsicht.

Künstliche allgemeine Intelligenz bereits da? Stimmen aus der Industrie und das Gegennarrativ

Branchenführer befeuern die Debatte zusätzlich. Einige Führungskräfte – darunter prominente CEOs von Cloud- und KI-Plattformen – haben öffentlich erklärt, dass sie die heutigen Systeme als AGI betrachten oder dass die Grenze nun faktisch durchlässig ist. Diese Behauptungen sind oft ein Synonym für kommerzielles Vertrauen: Modelle können Sprache erzeugen, Schlussfolgerungen aus Dokumenten ziehen, Code schreiben und Workflows ausführen, wenn sie zu „Agenten“ verknüpft werden. Für Kunden und Investoren sind diese Fähigkeiten bereits heute wirtschaftlich transformativ.

Doch nicht jeder akzeptiert, dass eine Gleichwertigkeit im Verhalten mit AGI gleichzusetzen ist. Kritiker argumentieren, dass die Beschreibung heutiger LLMs als allgemein intelligent wichtige Unterscheidungen hinfällig macht. Die technischen Einwände lassen sich in einige grobe Kategorien unterteilen: Modelle, die lediglich statistisches Pattern-Matching ohne kausale Modelle der Welt betreiben; Systeme, die halluzinieren oder selbstbewusst falsche Ergebnisse liefern; Architekturen, denen es an beständigen Zielen, Handlungsfähigkeit (Agency) oder verkörperter Interaktion fehlt; und Systeme, die um Größenordnungen mehr Daten benötigen als Menschen, um Kompetenz zu erlangen. Für viele Skeptiker sind diese Unterschiede nicht kosmetisch – sie offenbaren fundamentale Lücken zwischen der aktuellen KI und einer belastbaren, autonomen allgemeinen Intelligenz.

Wie Forscher AGI definieren – und warum Definitionen wichtig sind

Was genau ist künstliche allgemeine Intelligenz? Die Definitionen variieren, aber zwei Ideen kehren in der ernsthaften Debatte immer wieder. Die eine betrachtet AGI als die praktische Fähigkeit, fast alle kognitiven Aufgaben zu bewältigen, die ein Mensch ausführen kann: Sprache, Mathematik, Planung, Wahrnehmung, Problemlösung, kreatives und wissenschaftliches Denken. Eine andere, formalere Forschungsrichtung sucht nach einer universellen Metrik der Problemlösungsfähigkeit über verschiedene Aufgabenverteilungen hinweg (ein theoretisches Programm, das in Arbeiten zur „universellen Intelligenz“ zu finden ist).

Diejenigen, die sagen, AGI sei noch theoretisch, betonen den Mechanismus: ein System, das flexibel Ziele formulieren, Lernerfolge mit wenigen Daten zwischen sehr unterschiedlichen Domänen transferieren, physisch mit einer Umgebung interagieren und aus dieser fortlaufenden Interaktion lernen kann. Sie weisen darauf hin, dass den aktuellen Modellen, so leistungsfähig sie auch sein mögen, oft ein zuverlässiges kausales Denken fehlt, sie umfangreiche menschliche Hilfestellungen (Scaffolding) benötigen, um agentenhaft zu agieren, und außerhalb ihrer Trainingsverteilung unvorhersehbar scheitern. Befürworter halten dagegen, dass es inkonsistent sei, von Maschinen dieselben Beweise zu verlangen, die wir von Menschen nie fordern – zum Beispiel den Blick in interne Prozesse.

Wo heutige KI mit menschlichen Fähigkeiten mithält – und wo nicht

  • Stärken: flüssige Sprache, Zusammenfassungen, Programmieren, viele standardisierte Aufgaben, domänenspezifisches Expertenverhalten bei Feinabstimmung oder Erweiterung durch Tools.
  • Schwächen: unzuverlässige faktische Fundierung („Halluzinationen“), instabile Generalisierung außerhalb der Trainingsverteilung, begrenzte langfristige autonome Planung ohne menschliche Führung und geringe Stichprobeneffizienz im Vergleich zu menschlichen Kleinkindern.
  • Fehlende Zutaten, die einige Experten fordern: beständige Ziele und Agency, verkörpertes sensomotorisches Lernen, kausale Modelle, die kontrafaktisches Denken ohne enorme Datenmengen unterstützen, und transparente mechanistische Erklärungen dafür, wie Fähigkeiten entstehen.

Ist die AGI bereits da oder lediglich in greifbarer Nähe?

Wie nah sind Forscher der Verwirklichung einer künstlichen allgemeinen Intelligenz? Das Feld ist gespalten. Einige Roadmaps sehen schrittweise Verbesserungen und agentische Systeme – zuverlässiger, multimodal und integriert –, die uns innerhalb eines Jahrzehnts zu einer robusten AGI führen werden. Andere betonen, dass aktuelle Architekturen evolutionär oberflächlich sind und neue konzeptionelle Durchbrüche erforderlich sein werden. Da heutige Systeme ihre Entwickler bereits überraschen, bleibt die Vorhersage eines Zeitplans schwierig.

Unterschiede zwischen KI und AGI in der Praxis

Die Unterscheidung zwischen der KI, die Sie heute nutzen, und einer hypothetischen AGI ist sowohl technischer als auch philosophischer Natur. Eine spezialisierte KI („Narrow AI“) brilliert bei einem begrenzten Problem, sofern sie über viele Daten verfügt; AGI impliziert allgemeine Problemlösung über Domänen hinweg mit Transfer, Planung und Anpassung. In der Praxis bedeutet dies einen Unterschied in der Autonomie (die Fähigkeit, Ziele ohne menschliche Aufforderung zu formulieren und zu verfolgen), der Übertragbarkeit (eine in einem Kontext gelernte Fähigkeit in einem völlig anderen Kontext anzuwenden) und der Robustheit (stabile Leistung in neuen, adversariellen oder datenarmen Umgebungen).

Risiken, Vorteile und politische Auswirkungen

Ob man es nun heute oder erst in fünf Jahren AGI nennt: Das Entstehen von Systemen, die beständig eine breite Palette kognitiver Aufgaben erfüllen können, hat soziale Konsequenzen. Die Vorteile sind real und messbar: Automatisierung komplexer Analysen, verbesserte Synthese wissenschaftlicher Literatur, neue industrielle Automatisierungsmodelle, medizinische Entscheidungsunterstützung und schnellere F&E-Zyklen. Die Risiken reichen von Fehlinformationen, die durch flüssige Generierung verstärkt werden, über wirtschaftliche Verdrängung bis hin zu Sicherheitsmängeln, wenn Modellen Handlungsspielraum gegeben wird, und Fragen der Verantwortlichkeit, wenn opake Modelle folgenreiche Entscheidungen treffen.

Diese Mischung erklärt, warum Governance, Transparenz, Red Teaming und eine regulierte Bereitstellung selbst für Skeptiker dringende Prioritäten sind. Die zentrale politische Herausforderung ist nicht nur das technische Sicherheitsengineering, sondern auch eine Wirtschafts- und Sozialpolitik, die Arbeitnehmer, Verbraucher und demokratische Institutionen schützt und gleichzeitig die Vorteile nutzt.

Was die Debatte über Wissenschaft und Gesellschaft aussagt

Dieses Ereignis – ein Nature-Kommentar, Befürwortungen aus der Industrie und ein Gegenstrom an skeptischen Büchern und Gastbeiträgen – unterstreicht zwei Fakten. Erstens: Definitionen sind wichtig. Zu sagen „AGI ist da“, ist ebenso ein begrifflicher Schritt wie eine empirische Behauptung. Zweitens: Die Ungewissheit über den Mechanismus ist real und folgenschwer. Wir verfügen über bemerkenswerte Verhaltenssysteme, deren interne Logik wir nicht vollständig verstehen; diese Kombination aus Macht und Undurchsichtigkeit erklärt sowohl die Begeisterung als auch die Besorgnis.

Vorerst ist dies der vertretbarste Standpunkt: Wir befinden uns in einer Übergangsära. Einige Systeme erreichen bereits menschliches Leistungsniveau bei spezialisierten und vielen domänenübergreifenden Aufgaben; andere bleiben in Bezug auf Autonomie, kausales Verständnis und verkörpertes Lernen eingeschränkt. Ob wir diesen Zustand als „AGI“ bezeichnen, mag für die Rhetorik von Bedeutung sein, aber die politische Antwort sollte dieselbe sein: in strenge Evaluierung investieren, Transparenz und Sicherheit fordern und die Institutionen auf rasche soziale Auswirkungen vorbereiten.

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Leserfragen beantwortet

Q Was genau ist künstliche allgemeine Intelligenz (AGI)?
A Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) ist eine hypothetische Form der KI, die menschliche Fähigkeiten in nahezu allen kognitiven Aufgaben erreichen oder übertreffen kann, einschließlich logischem Denken, Planung, Lernen und Kommunikation in natürlicher Sprache. Im Gegensatz zu spezialisierter KI (Narrow AI) generalisiert AGI Wissen, überträgt Fähigkeiten zwischen verschiedenen Bereichen und löst neuartige Probleme ohne aufgabenspezifische Umprogrammierung. Ihr Ziel ist es, die vielseitige und anpassungsfähige Intelligenz des menschlichen Verstandes nachzubilden.
Q Gibt es AGI bereits oder ist sie noch theoretisch?
A AGI ist noch nicht Realität; sie bleibt hypothetisch und theoretisch, da derzeit keine Systeme existieren, die in allen Bereichen mit der menschlichen allgemeinen Intelligenz mithalten können. Aktuelle KI, wie etwa große Sprachmodelle, überzeugt bei spezifischen Aufgaben, lässt jedoch wahres Verständnis, gesunden Menschenverstand oder die Anpassungsfähigkeit an völlig neue Kontexte ohne erneutes Training vermissen. Behauptungen über die Erreichung von AGI, wie etwa jüngste Aussagen der UCSD, sind durch den Konsens in diesem Fachbereich nicht belegt.
Q Wie nah sind Forscher der Entwicklung einer künstlichen allgemeinen Intelligenz?
A Forscher streben AGI aktiv durch Ansätze wie neuronale Netze und maschinelles Lernen an, doch sie bleibt ein fernes Ziel ohne klaren Zeitplan für die Realisierung. Fortschritte bei spezialisierter KI, wie etwa GPT-Modelle, zeigen beeindruckende Fähigkeiten in begrenzten Bereichen, doch grundlegende Herausforderungen wie abstraktes Denken, Kausalität und Selbstverbesserung bestehen weiterhin. Der Expertenkonsens betrachtet AGI als theoretisch und sieht sie potenziell Jahrzehnte entfernt.
Q Was sind die Hauptunterschiede zwischen KI und AGI?
A Spezialisierte KI (Narrow AI oder ANI) brilliert bei spezifischen, klar definierten Aufgaben wie Bilderkennung oder Sprachübersetzung, kann aber nicht über ihr Training hinaus generalisieren. AGI hingegen führt jede intellektuelle Aufgabe aus, die ein Mensch bewältigen kann – mit Vielseitigkeit, Anpassungsfähigkeit, Selbstverbesserung und menschenähnlichem Verständnis in verschiedenen Bereichen ohne Umprogrammierung. Aktuelle KI verlässt sich auf vordefinierte Parameter, während AGI sich selbst lehren und neuartige Probleme autonom bewältigen würde.
Q Was sind die potenziellen Risiken und Vorteile von AGI für die Gesellschaft?
A AGI könnte immense Vorteile bringen, wie die Beschleunigung wissenschaftlicher Durchbrüche, die Lösung komplexer globaler Probleme und die Steigerung der wirtschaftlichen Produktivität durch autonome Innovation. Zu den Risiken gehören jedoch die Verdrängung von Arbeitsplätzen, der Verlust der menschlichen Kontrolle, existenzielle Bedrohungen durch nicht auf menschliche Ziele ausgerichtete superintelligente Systeme sowie ethische Bedenken hinsichtlich der Entscheidungsfindung in kritischen Bereichen. Die Gesellschaft muss der Sicherheitsforschung Priorität einräumen, um diese Gefahren mit fortschreitender Entwicklung zu mindern.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!