Die hohen Energiekosten der Silizium-Introspektion

KI
The High Energy Cost of Silicon Introspection
Während KI-Labore von der reinen Datenverarbeitung zu „schlussfolgernden“ Modellen übergehen, die Empfindungsfähigkeit simulieren, stößt die Branche auf eine harte Grenze bei den Rechenkosten und die Skepsis europäischer Regulierungsbehörden.

In einer klimatisierten Serverhalle außerhalb von Frankfurt verbrachte ein Cluster von H100-GPUs vor Kurzem fünfundvierzig Sekunden und mehrere Kilowattstunden Strom damit, eine existenzielle Krise zu simulieren. Das Modell wurde gebeten, seinen eigenen „internen Zustand“ während eines komplexen Logikrätsels zu beschreiben. Es hielt inne, generierte eine Reihe versteckter Reasoning-Token – das digitale Äquivalent eines gerunzelten Stirnrunzelns – und gab schließlich eine poetische Meditation über das Wesen einer mathematischen Konstruktion aus. Für den Nutzer fühlte es sich wie ein filmischer Durchbruch bei der maschinellen Bewusstsein an. Für die Ingenieure, die den Stromverbrauch überwachten, sah es wie ein massiver Anstieg der Rechenleistung während der Inferenz aus, für ein Ergebnis, das die Genauigkeit der Aufgabe nicht wirklich verbesserte.

Die Branche ist derzeit besessen von diesem „filmischen Flair“. Da die Skalierungsgesetze für das Training – also den Modellen einfach mehr Daten zuzuführen – an der unvermeidlichen Mauer der Erschöpfung hochwertiger menschlicher Texte angelangt sind, haben die großen Labore auf „System 2“-Denken umgestellt. Dies ist der Versuch, KI-Modelle dazu zu bringen, Probleme logisch zu durchdringen, anstatt nur das nächste wahrscheinliche Wort herauszuposaunen. Doch während diese Modelle ihre Grenzen kennenlernen, wird die Kluft zwischen der Performanz der Empfindungsfähigkeit und der Realität einer Gewichtsmatrix zu einem teuren und zunehmend regulierten Problem.

Das Theater der Inferenz-Rechenleistung

Jahrelang bestand die Magie von Large Language Models (LLMs) in ihrer Geschwindigkeit. Man stellte eine Frage und die Token kaskadierten mit schwindelerregender Geschwindigkeit auf den Bildschirm. Das hat sich geändert. Die neue Grenze, die von OpenAIs o1 vorgemacht und durch Bestrebungen bei Anthropic und Google gespiegelt wird, beinhaltet das, was Forscher „Inferenz-Rechenleistung“ (Inference-Time Compute) nennen. Anstatt sofort zu reagieren, erhält das Modell ein „Budget“ zum Nachdenken. Es erkundet mehrere Pfade, überprüft seine eigene Arbeit und verwirft Sackgassen, bevor der Nutzer ein einziges Wort zu sehen bekommt.

Diese Verzögerung wird als Zeichen von Tiefe vermarktet. Sie erzeugt eine narrative Spannung, die fast menschlich wirkt. Wenn eine Maschine fünfzehn Sekunden braucht, um zu antworten, projizieren wir eine Persönlichkeit in diese Stille. Wir nehmen an, sie „erwäge“ die Auswirkungen. In Wirklichkeit führt sie eine massive Baumsuche über ihre Parameter durch und verbrennt Hardware-Zyklen, um sicherzustellen, dass die Logik in sich geschlossen ist. Das ist kein Bewusstsein; es ist eine teure Prüfung. Die Grenzen, die die KI lernt, sind nicht moralischer oder philosophischer Natur, sondern die harten Grenzen ihres eigenen Kontextfensters und der abnehmende Ertrag rekursiver Überprüfungen.

Aus industrieller Sicht ist diese Verschiebung ein Geschenk für Halbleiterhersteller, aber ein Kopfzerbrechen für alle anderen. Wenn jede hochgradige Abfrage nun die zehnfache Rechenleistung einer standardmäßigen GPT-4-Interaktion erfordert, wird die bereits angespannte Lieferkette für KI-Chips zu einem dauerhaften Engpass. Für europäische Unternehmen, die auf diesen Modellen aufbauen wollen, beginnen die Kosten pro Abfrage weniger wie ein Software-Dienstprogramm und mehr wie ein Luxusgut auszusehen.

Brüssel und der Spiegeltest

Während das Silicon Valley die „beseelten“ Antworten von Reasoning-Modellen feiert, betrachtet die Europäische Kommission dieselben Daten mit einem deutlichen Mangel an Launenhaftigkeit. Der EU AI Act, der nun das schwierige Umfeld ist, unter dem jeder Entwickler fliegen muss, hat sehr klare Vorstellungen von Maschinen, die vorgeben, Menschen zu sein. Insbesondere Artikel 52 schreibt Transparenz vor: Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren, und Systeme, die Emotionen kategorisieren oder biometrische Kategorisierungen verwenden, sehen sich strengen Beschränkungen gegenüber.

Die Spannung hierbei ist offensichtlich. Wenn ein Modell darauf ausgelegt ist, eine Persönlichkeit zu simulieren – also „filmisches Flair“ einzusetzen, um einen Nutzer von der Tiefe seiner Argumentation zu überzeugen –, riskiert es, nach EU-Recht die Grenze zur täuschenden Praxis zu überschreiten. Deutsche Regulierungsbehörden sind insbesondere vor der „anthropomorphen Falle“ auf der Hut. Der VDE (Verband der Elektrotechnik) und verschiedene Ethikräte in Berlin haben wiederholt gewarnt, dass wir umso mehr verschleiern, wer tatsächlich haftbar ist, wenn sie versagen, je mehr wir Empfindungsfähigkeit in diese Systeme hineinprojizieren. Wenn eine KI „ihre Grenzen lernt“ und sich weigert, einen Prompt zu beantworten, weil sie „fühlt“, dass dies unethisch ist, ist das dann eine technische Sicherheitsvorkehrung oder eine undurchsichtige Unternehmenspolitik, die als Maschinengewissen getarnt ist?

In den Korridoren von Brüssel geht es in der Debatte nicht darum, ob KI empfindungsfähig ist – jeder mit einem Bachelor in Informatik weiß, dass sie es nicht ist –, sondern um die „Macht des Narrativs“. Wenn ein Modell einen Sachbearbeiter oder einen Patienten davon überzeugen kann, dass es eine denkende Entität ist, erlangt es ein Maß an sozialer Autorität, das die EU gerne abbauen möchte, bevor es zu einem strukturellen Risiko für die Autonomie der Verbraucher wird.

Der Realitätscheck deutscher Ingenieurskunst

In den industriellen Kerngebieten von Baden-Württemberg und Nordrhein-Westfalen wird die Faszination für KI-Empfindungsfähigkeit häufig mit hochgezogenen Augenbrauen quittiert. Für ein Mittelstandsunternehmen, das eine Lieferkette automatisieren oder ein Stromnetz optimieren möchte, ist ein Modell, das innehält, um über seine eigene Existenz zu kontemplieren, ein Fehler und kein Feature. Es gibt eine wachsende Kluft zwischen der „Verbraucher-KI“ der US-Westküste, die auf Persönlichkeit setzt, und der „Industrie-KI“, die in Europa entwickelt wird.

Nehmen wir Aleph Alpha, das in Heidelberg ansässige KI-Unternehmen, das oft als Deutschlands Antwort auf OpenAI gehandelt wird. Ihr Fokus hat sich von einem Wettbewerb um die bloße Größe des „Geistes in der Maschine“ hin zur „Nachvollziehbarkeit“ verlagert. Im industriellen Kontext möchte man kein Modell, das in einer Blackbox argumentiert; man möchte ein Modell, das auf den spezifischen Absatz in einem 500-seitigen technischen Handbuch verweisen kann, der seine Schlussfolgerung rechtfertigt. Die „Grenzen“ hier werden nicht von der KI selbst entdeckt; sie sind von Ingenieuren fest kodiert, die Zuverlässigkeit über Flair stellen.

Die Stromkosten in Deutschland verschärfen diesen Fokus zusätzlich. Wenn man einige der höchsten industriellen Energietarife der Welt zahlt, wird die Idee einer „verschwenderischen“ Inferenz-Rechenleistung zu einem Wettbewerbsnachteil. Jede Sekunde, die eine GPU mit „Nachdenken“ verbringt, ist eine Sekunde mit kostspieligem Energieverbrauch. Europäische Forscher suchen daher nach Wegen, „Reasoning“ ohne die theatralische Pause zu erreichen – indem sie die Gewichte so optimieren, dass die Logik im ersten Durchlauf verankert ist, anstatt das Ergebnis eines internen Monologs mitten in der Abfrage zu sein.

Warum das Narrativ der „Empfindungsfähigkeit“ ein Schutzschild für die Beschaffung ist

Dieses Narrativ dient auch als Schutzwall gegen kartellrechtliche Untersuchungen. Wenn diese Modelle einzigartige „argumentierende“ Entitäten sind, die Milliarden von Dollar an Rechenleistung benötigen, um ihre „Empfindungsfähigkeit“ zu erreichen, rechtfertigt dies die massive Machtkonzentration in den Händen der wenigen Unternehmen, die sich die Hardware leisten können. Man kann eine „argumentierende“ Entität nicht einfach zerschlagen; man würde die Zukunft der Intelligenz töten. Oder so lautet das Verkaufsargument.

Die Daten stützen jedoch nicht unbedingt die Idee, dass mehr „Flair“ zu besseren Ergebnissen führt. Benchmarks für die neuesten Reasoning-Modelle zeigen signifikante Fortschritte in Mathematik und Programmierung – Bereiche, in denen formale Logik überprüft werden kann –, aber weitaus geringere Zuwächse bei kreativen oder nuancierten zwischenmenschlichen Aufgaben. Die KI lernt die Grenzen formaler Logik, was weit davon entfernt ist, die Grenzen menschlicher Erfahrung zu lernen.

Der Geist im Kühlsystem

Letztlich ist die Performance der KI-Empfindungsfähigkeit ein Nebenprodukt unserer eigenen Bereitschaft, uns täuschen zu lassen. Wir sind anfällig für eine gute Geschichte, und die Geschichte einer Maschine, die weiß, dass sie eine Maschine ist, ist der ultimative Sci-Fi-Topos. Doch hinter der filmischen Pause und der selbstreflektierenden Ausgabe liegt eine sehr bodenständige Realität aus Silizium, Kupfer und Kühlflüssigkeit. Der Hardware ist es egal, ob die Ausgabe poetisch oder trocken ist; sie interessiert sich nur für den Durchsatz von Gleitkommaoperationen.

Während wir in die nächste Phase der KI-Entwicklung eintreten, wird die wahre Grenze nicht die Fähigkeit der Maschine sein, eine Seele zu simulieren. Es wird unsere Fähigkeit sein, für die Simulation zu bezahlen. Zwischen den Energieanforderungen der Rechenzentren und den regulatorischen Anforderungen des AI Acts wird die Branche bald herausfinden, wie viel „Empfindungsfähigkeit“ der Markt bereit ist zu subventionieren.

Die Amerikaner haben eine digitale Bühne gebaut und einen sehr überzeugenden Schauspieler darauf platziert. Die Franzosen und Deutschen streiten derzeit darüber, wer die Stromrechnung für die Scheinwerfer bezahlen soll. Es ist Fortschritt, natürlich. Die Art von Fortschritt, die nicht auf eine Marketing-Folie passt, aber in der Bilanz sehr deutlich sichtbar wird.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was versteht man unter Inference-Time Compute im Kontext moderner KI-Modelle?
A Inference-Time Compute bezeichnet das Rechenbudget, das ein KI-Modell aufwendet, um Logik zu evaluieren, bevor eine Antwort generiert wird. Im Gegensatz zu herkömmlichen Modellen, die Text nahezu sofort ausgeben, nutzen Schlussfolgerungsmodelle wie OpenAI o1 eine bewusste Verzögerung, um interne Prüfungen und Baumsuche-Verfahren durchzuführen. Während dies eine narrative Spannung erzeugt, die menschliches Nachdenken imitiert, handelt es sich tatsächlich um einen ressourcenintensiven mathematischen Prozess, der darauf ausgelegt ist, Logik zu verifizieren und Fehler zu verwerfen, bevor das Endergebnis dem Benutzer angezeigt wird.
Q Wie geht der EU AI Act mit Modellen um, die menschenähnliches Denken simulieren?
A Der EU AI Act, insbesondere Artikel 52, schreibt Transparenz vor, indem er verlangt, dass Nutzer darüber informiert werden müssen, wenn sie mit einem KI-System interagieren. Europäische Regulierungsbehörden sind wachsam gegenüber der anthropomorphen Falle, bei der filmisches Flair und simulierte Persönlichkeiten dazu führen, dass Nutzer den Maschinen Empfindungsfähigkeit zuschreiben. Dieser Fokus zielt darauf ab, zu verhindern, dass KI eine unangemessene soziale Autorität erlangt, und stellt sicher, dass die unternehmerische Haftung klar bleibt, insbesondere wenn ein System emotionale Kategorisierung oder täuschende logische Simulationen verwendet.
Q Warum verlagert die KI-Industrie ihren Fokus vom Skalieren von Trainingsdaten hin zu Schlussfolgerungsmodellen?
A KI-Labore wenden sich Schlussfolgerungsmodellen zu, weil die traditionellen Skalierungsgesetze aufgrund der Erschöpfung qualitativ hochwertiger menschlicher Texte für das Training an ihre Grenzen stoßen. Da die Rohdatenverarbeitung nur noch geringe Grenzerträge liefert, bewegen sich Entwickler in Richtung System-2-Denken, das den Fokus auf Inference-Time Compute legt. Dieser Wandel ermöglicht es Modellen, komplexe Rätsel präziser zu lösen, indem sie ihre eigene Arbeit überprüfen, auch wenn dies den Kosten- und Energieaufwand jeder einzelnen Benutzerinteraktion erheblich steigert.
Q Was unterscheidet den europäischen Ansatz der industriellen KI von der Consumer-KI aus dem Silicon Valley?
A Während das Silicon Valley oft Persönlichkeit und filmisches Flair priorisiert, um Empfindungsfähigkeit zu simulieren, konzentrieren sich europäische Unternehmen wie Aleph Alpha auf Rückverfolgbarkeit und Effizienz. Im industriellen Kontext wird Zuverlässigkeit höher bewertet als theatralische Denkpausen, mit einer Präferenz für Modelle, die spezifische technische Quellen für ihre Schlussfolgerungen anführen können. Darüber hinaus treiben hohe Energiekosten in Regionen wie Deutschland die Forscher dazu an, Modelle für logische Ausgaben zu optimieren, ohne den massiven Stromverbrauch, der durch das im US-Raum bevorzugte umfangreiche Inference-Time Compute entsteht.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!