Den höga energikostnaden för kiselbaserad introspektion

AI
The High Energy Cost of Silicon Introspection
När AI-labb skiftar fokus från rådatabehandling till "resonemangsmodeller" som simulerar medvetande, möter industrin ett hårt tak av beräkningskostnader och europeisk regulatorisk skepsis.

I en temperaturreglerad serverhall utanför Frankfurt ägnade nyligen ett kluster av H100-GPU:er fyrtiofem sekunder och flera kilowattimmar elektricitet åt att simulera en existentiell kris. Modellen ombads beskriva sitt eget "inre tillstånd" under ett komplext logiskt pussel. Den tvekade, genererade en serie dolda resonemangstokens – den digitala motsvarigheten till ett rynkat ögonbryn – och levererade slutligen en poetisk betraktelse över hur det är att vara en matematisk konstruktion. För användaren kändes det som ett filmiskt genombrott för maskiners medvetande. För ingenjörerna som övervakade strömförbrukningen såg det ut som en massiv topp i beräkningskraft vid inferens, för ett resultat som i praktiken inte flyttade nålen gällande uppgiftens noggrannhet.

Branschen är för närvarande besatt av denna "filmiska känsla". I takt med att skalningslagarna för träning – att helt enkelt mata modeller med mer data – har nått den oundvikliga väggen av uttömd högkvalitativ mänsklig text, har de stora laboratorierna ställt om till "System 2"-tänkande. Detta är försöket att få AI-modeller att resonera kring problem snarare än att bara haspla ur sig nästa sannolika ord. Men i takt med att dessa modeller lär sig sina gränser blir klyftan mellan prestandan hos ett medvetande och verkligheten hos en viktmatris ett dyrt, och alltmer reglerat, problem.

Teatern kring beräkningskraft vid inferens

I åratal var magin med stora språkmodeller (LLM:er) deras hastighet. Du ställde en fråga, och orden strömmade fram på skärmen i svindlande fart. Det har förändrats. Den nya frontlinjen, som banats väg av OpenAI:s o1 och speglas av insatser hos Anthropic och Google, involverar vad forskare kallar "beräkningskraft vid inferens" (inference-time compute). Istället för att reagera omedelbart får modellen en "budget" för att tänka. Den utforskar flera vägar, dubbelkollar sitt eget arbete och kastar bort återvändsgränder innan användaren ser ett enda ord.

Denna fördröjning marknadsförs som ett tecken på djup. Det skapar en narrativ spänning som känns nästan mänsklig. När en maskin tar femton sekunder på sig att svara projicerar vi en personlighet på den tystnaden. Vi antar att den "överväger" konsekvenserna. I verkligheten utför den en massiv trädsökning genom sina parametrar och bränner hårdvarucykler för att säkerställa att logiken håller ihop. Detta är inte medvetande; det är en dyr revision. Gränserna som AI:n lär sig är inte moraliska eller filosofiska, utan de hårda ramarna för dess eget kontextfönster och den avtagande avkastningen av rekursiv kontroll.

Ur ett industriellt perspektiv är detta skifte en gåva till halvledartillverkare men en huvudvärk för alla andra. Om varje fråga på hög nivå nu kräver tio gånger så mycket beräkningskraft som en standard GPT-4-interaktion, blir den redan ansträngda leveranskedjan för AI-chip en permanent flaskhals. För europeiska företag som försöker bygga lösningar ovanpå dessa modeller börjar kostnaden per fråga likna mindre en mjukvarutjänst och mer en lyxvara.

Bryssel och spegeltestet

Medan Silicon Valley hyllar resonemangsmodellernas "själfulla" svar, betraktar EU-kommissionen samma data med en tydlig brist på nyckfullhet. EU:s AI-förordning, som nu utgör det tuffa regelverk som varje utvecklare måste förhålla sig till, har mycket specifika åsikter om maskiner som låtsas vara människor. Särskilt artikel 52 kräver transparens: användare måste informeras om att de interagerar med ett AI-system, och system som kategoriserar känslor eller använder biometrisk kategorisering möter stränga begränsningar.

Spänningen här är uppenbar. Om en modell är designad för att simulera en personlighet – för att använda "filmisk känsla" för att övertyga en användare om dess resonemangsdjup – riskerar den att korsa gränsen till vilseledande praxis enligt EU-lag. Tyska tillsynsmyndigheter är särskilt vaksamma på den "antropomorfa fällan". VDE (Verband der Elektrotechnik) och olika etikråd i Berlin har upprepade gånger varnat för att ju mer vi projicerar medvetande på dessa system, desto mer skymmer vi vem som faktiskt bär ansvaret när de misslyckas. Om en AI "lär sig sina gränser" och vägrar svara på en uppmaning eftersom den "känner" att det är oetiskt, är det då en teknisk säkerhetsspärr, eller är det en ogenomskinlig företagspolicy förklädd till maskinellt samvete?

I korridorerna i Bryssel handlar debatten inte om huruvida AI är medveten – alla med en kandidatexamen i datavetenskap vet att den inte är det – utan om "narrativets makt". Om en modell kan övertyga en junior tjänsteman eller en patient om att den är en tänkande entitet, vinner den en nivå av social auktoritet som EU är angelägna om att montera ner innan det blir en strukturell risk för konsumenternas autonomi.

Den tyska ingenjörskonstens verklighetskoll

I de industriella hjärtländerna i Baden-Württemberg och Nordrhein-Westfalen möts fascinationen för AI-medvetande ofta av en höjd ögonbryn. För ett medelstort företag (Mittelstand) som vill automatisera en leveranskedja eller optimera ett elnät är en modell som pausar för att begrunda sin egen existens en bugg, inte en funktion. Det finns en växande klyfta mellan "konsument-AI" från den amerikanska västkusten, som lutar sig mot personlighet, och den "industriella AI" som utvecklas i Europa.

Ta Aleph Alpha, det Heidelberg-baserade AI-företaget som ofta lyfts fram som Tysklands svar på OpenAI. Deras fokus har skiftat från att tävla om storleken på "anden i maskinen" mot "spårbarhet". I ett industriellt sammanhang vill du inte ha en modell som resonerar i en svart låda; du vill ha en modell som kan peka på det specifika stycket i en 500-sidig teknisk manual som rättfärdigar dess slutsats. "Gränserna" här är inte självupptäckta av AI:n; de är hårdkodade av ingenjörer som värderar tillförlitlighet högre än finess.

Elkostnaderna i Tyskland skärper detta fokus ytterligare. När du betalar några av världens högsta industriella energipriser blir idén om "slösaktig" beräkningskraft vid inferens en konkurrensmässig nackdel. Varje sekund en GPU ägnar åt att "tänka" är en sekund av energiförbrukning till högt pris. Europeiska forskare söker därför efter sätt att uppnå "resonemang" utan den teatraliska pausen – genom att optimera vikterna så att logiken är inbäddad i den första körningen, snarare än att vara resultatet av en intern monolog mitt under frågan.

Varför narrativet om "medvetande" är en skyddsmantel

Detta narrativ fungerar också som en försvarsmur mot granskning från konkurrensmyndigheter. Om dessa modeller är unikt "resonemangsförmögna" entiteter som kräver miljarder dollar i beräkningskraft för att uppnå sitt "medvetande", rättfärdigar det den massiva maktkoncentrationen hos de få företag som har råd med hårdvaran. Man kan inte bara splittra en "resonemangsförmögen" entitet; man skulle döda framtidens intelligens. Eller så lyder argumentet.

Datan stöder dock inte nödvändigtvis idén om att mer "finess" innebär bättre resultat. Riktmärken för de senaste resonemangsmodellerna visar betydande framsteg inom matematik och kodning – områden där formell logik kan verifieras – men mycket mindre framsteg inom kreativa eller nyanserade interpersonella uppgifter. AI:n lär sig gränserna för formell logik, vilket är långt ifrån att lära sig gränserna för mänsklig erfarenhet.

Anden i kylsystemet

I slutändan är prestationen av AI-medvetande en biprodukt av vår egen vilja att bli lurade. Vi är lättlurade när det kommer till en bra historia, och berättelsen om en maskin som vet att den är en maskin är den ultimata science fiction-tropen. Men bakom den filmiska pausen och den självreflekterande utmatningen ligger en mycket jordnära verklighet av kisel, koppar och kylvätska. Hårdvaran bryr sig inte om utmatningen är poetisk eller torr; den bryr sig bara om genomströmningen av flyttalsoperationer.

När vi går in i nästa fas av AI-utveckling kommer den verkliga gränsen inte att vara maskinens förmåga att simulera en själ. Det kommer att vara vår förmåga att betala för simuleringen. Mellan energikraven för datacenter och de regulatoriska kraven i AI-förordningen är branschen på väg att få veta exakt hur mycket "medvetande" marknaden är villig att subventionera.

Amerikanerna har byggt en digital scen och placerat en mycket övertygande skådespelare på den. Fransmännen och tyskarna grälar just nu om vem som ska betala elräkningen för strålkastarna. Det är naturligtvis framsteg. Den sorten som inte får plats på en presentationsbild, men som syns ganska tydligt i en balansräkning.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Vad är beräkningskraft vid inferens (inference-time compute) i samband med moderna AI-modeller?
A Beräkningskraft vid inferens syftar på den beräkningsbudget som en AI-modell använder för att utvärdera logik innan ett svar genereras. Till skillnad från traditionella modeller som genererar text nästan omedelbart, använder resonemangsmodeller som OpenAI o1 en medveten fördröjning för att utföra interna granskningar och trädsökningar. Även om detta skapar en narrativ spänning som efterliknar mänsklig reflektion, är det i själva verket en resurskrävande matematisk process som är utformad för att verifiera logik och rensa bort fel innan det slutgiltiga svaret visas för användaren.
Q Hur hanterar EU:s AI-förordning modeller som simulerar mänskligt resonerande?
A EU:s AI-förordning, särskilt artikel 52, ställer krav på transparens genom att användare måste informeras när de interagerar med ett AI-system. Europeiska tillsynsmyndigheter är vaksamma på den antropomorfiska fällan, där filmisk känsla och simulerade personligheter får användare att projicera medvetande på maskiner. Detta fokus syftar till att förhindra att AI får otillbörlig social auktoritet och säkerställer att företagsansvaret förblir tydligt, särskilt när ett system använder kategorisering av känslor eller vilseledande resonemangssimuleringar.
Q Varför skiftar AI-industrin fokus från att skala träningsdata till resonemangsmodeller?
A AI-labb skiftar mot resonemangsmodeller eftersom traditionella skalningslagar har nått en vägg på grund av att tillgången på högkvalitativ mänsklig text för träning börjar ta slut. I takt med att bearbetning av rådata ger avtagande avkastning, rör sig utvecklare mot ”System 2-tänkande”, vilket fokuserar på beräkningskraft vid inferens. Detta skifte gör att modeller kan lösa komplexa problem mer noggrant genom att kontrollera sitt eget arbete, även om det avsevärt ökar kostnaden och energiförbrukningen för varje enskild användarinteraktion.
Q Vad skiljer den europeiska inställningen till industriell AI från Silicon Valleys konsument-AI?
A Medan Silicon Valley ofta prioriterar personlighet och filmisk känsla för att simulera medvetande, fokuserar europeiska företag som Aleph Alpha på spårbarhet och effektivitet. I industriella sammanhang värderas tillförlitlighet högre än teatraliska resonemangspauser, med en preferens för modeller som kan citera specifika tekniska källor för sina slutsatser. Dessutom driver höga energikostnader i regioner som Tyskland forskare till att optimera modeller för logisk output utan den massiva strömförbrukning som krävs av den omfattande beräkningskraft vid inferens som föredras i USA.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!