Helios 14B: Videogenerering i realtid i långformat

Breaking News Teknik
Close-up of a computer chip emitting glowing holographic film strips, symbolizing rapid AI video creation.
4K Quality
Forskare har presenterat Helios, en videogenereringsmodell med 14 miljarder parametrar som uppnår banbrytande 19,5 bilder per sekund på en enda NVIDIA H100 GPU. Genom att eliminera vanliga beräkningsmässiga flaskhalsar och lösa tidsmässig drift producerar Helios högkvalitativ, minutlång video utan behov av komplexa accelerationstekniker eller massiva hårdvarukluster.

Videogenereringsmodellen Helios är ett banbrytande autoregressivt diffusionssystem med 14B parametrar, utformat för långformad videosyntes i realtid, vilket uppnår rekordbrytande 19,5 bilder per sekund (FPS) på en enda NVIDIA H100 GPU. Genom att möjliggöra en sofistikerad fusion av höghastighetsinferens och arkitektonisk robusthet stöder Helios videogenerering i minutskala samtidigt som den nativt hanterar uppgifter inom text-till-video (T2V), bild-till-video (I2V) och video-till-video (V2V). Denna modell representerar ett betydande steg framåt inom generativ AI och matchar kvaliteten hos branschledande baslinjer utan den tunga beräkningsmässiga overhead som vanligtvis krävs för högupplöst temporal konsistens.

Vad är videogenereringsmodellen Helios?

Helios är en autoregressiv diffusionsmodell med 14B parametrar, specifikt utvecklad för långformad videogenerering i realtid, kapabel att producera högkvalitativt innehåll i 19,5 FPS på fristående hårdvara. Modellen, som utvecklats av forskarna Shenghai Yuan, Li Yuan och Zongjian Li, använder en enhetlig indata-representation för att effektivisera multimodala kreativa arbetsflöden. Till skillnad från traditionella modeller som kräver massiv parallellism, är Helios optimerad för att köras effektivt på en enda NVIDIA H100, vilket gör den till ett mycket tillgängligt verktyg för både forskare och kreatörer.

Utvecklingen av Helios drevs av behovet att övervinna "effektivitetsväggen" inom videogenerering. Moderna videomodeller kräver ofta dussintals GPU:er för att generera bara några sekunders filmmaterial. Helios bryter denna trend genom att implementera optimeringar på infrastrukturnivå som minskar minnesförbrukningen och accelererar träningen. Modellen är så minneseffektiv att upp till fyra 14B-modeller får plats i det 80 GB minne som tillhandahålls av en enda H100 GPU, en bedrift som tidigare ansågs omöjlig för modeller i denna skala.

Kan Helios generera videor i minutskala genom en fusion av temporal logik?

Ja, Helios är explicit utformad för videogenerering i minutskala och använder en autoregressiv metod som bearbetar video i block om 33 bildrutor för att bibehålla temporal koherens. Denna fusion av långtgående kontext och effektiv uppdelning gör att modellen kan producera förlängda sekvenser som inte lider av den snabba kvalitetsförsämring som är vanlig i tidigare generativa modeller. Genom att behandla video som en kontinuerlig sekvens av sannolikhetsbaserade händelser kan Helios förlänga scener naturligt över flera minuters speltid.

För att uppnå denna förlängda varaktighet gick forskarna ifrån traditionell nyckelbildssampling. Istället behandlar Helios genereringsprocessen som ett sömlöst flöde, vilket säkerställer att varje bildruta informeras av en komprimerad representation av den föregående historiska kontexten. Denna metodik gör det möjligt för modellen att bibehålla en scens narrativ och fysiska konsistens, oavsett om det rör sig om en enkel karaktärsrörelse eller en komplex miljöomvandling, vilket effektivt matchar kvaliteten hos starka branschbaslinjer i både korta och långa format.

Hur undviker Helios "drifting" i långa videor utan KV-cache?

Helios undviker drifting i långa videor genom att använda innovativa träningsstrategier som simulerar fellägen under inlärningsfasen, vilket eliminerar behovet av KV-cache eller kvantisering. Genom att explicit lära modellen att känna igen och korrigera repetitiva rörelser och "drifting"-fel vid källan, tog forskarna bort behovet av vanliga heuristiker som self-forcing eller felbanker. Detta resulterar i en mer robust autoregressiv diffusionsprocess som förblir stabil även under höghastighetsinferens i realtid.

Effektivitet var ett primärt mål i metodiken för Helios. Forskargruppen komprimerade kraftigt den historiska och brusiga kontexten som användes under samplingsstegen. Genom att minska antalet nödvändiga samplingsiterationer uppnådde de beräkningskostnader som är jämförbara med – eller till och med lägre än – generativa modeller med endast 1,3B parametrar. Denna effektivitet säkerställer att modellen kan bibehålla resultat med hög trohet utan de vanliga accelerationstekniker som ofta offrar visuella detaljer för bearbetningshastighet.

Stöder Helios-modellen en fusion av multimodala uppgifter?

Helios-arkitekturen stöder nativt en fusion av T2V-, I2V- och V2V-uppgifter med hjälp av en enhetlig indata-representation som förenklar den generativa processen över olika medietyper. Denna flexibilitet gör det möjligt för användare att växla mellan att generera video från textprompter, animera statiska bilder eller transformera befintligt videomaterial inom ett och samma ramverk. Genom att förena dessa representationer eliminerar Helios behovet av uppgiftsspecifika undermodeller, vilket minskar den totala komplexiteten i distributionskedjan.

Omfattande experiment utförda av författarna visar att detta enhetliga tillvägagångssätt inte äventyrar kvaliteten. I benchmarkingtester överträffade Helios konsekvent tidigare state-of-the-art-metoder i både korta klipp och långformade filmsekvenser. Förmågan att hantera bild-till-video-uppgifter (I2V) med samma effektivitet som textprompter gör den till en mångsidig tillgång för AI-cinematografi, där bibehållandet av den visuella identiteten hos en referensbild är avgörande för professionell produktion.

Hur står sig Helios jämfört med Sora 2 eller Veo 3.1?

Även om direkta empiriska jämförelser med proprietära modeller som Sora eller Veo begränsas av tillgänglighet, matchar Helios kvaliteten hos starka öppna baslinjer samtidigt som den är avsevärt snabbare på en enda H100 GPU. Helios uppnår en end-to-end-genomströmning på 19,5 FPS, medan många jämförbara modeller med 14B parametrar kräver kluster med flera noder för att nå ens en bråkdel av den hastigheten. Detta gör Helios till ett överlägset val för realtidsapplikationer där latens är den främsta begränsningen.

Betydelsen av Helios ligger i dess hårdvarutillgänglighet. Medan modeller som Sora finns bakom massiva serverväggar, planerar Helios-teamet att släppa basmodellen, koden och den destillerade modellen till communityn. Detta öppen källkod-tillvägagångssätt möjliggör vidareutveckling inom generativ video och kan potentiellt demokratisera skapandet av högkvalitativt långformat innehåll som tidigare var förbehållet välfinansierade industriella laboratorier.

Framåt är konsekvenserna för AI-cinematografi och spel i realtid omfattande. När Helios bevisar att modeller med höga parametrar kan köras i realtid utan extrem kvantisering eller parallellism-ramverk, kan vi förvänta oss en ny våg av interaktiva medier. Framtida iterationer kan innebära ännu fler minskningar av samplingsstegen, vilket potentiellt kan föra ut högupplöst videogenerering i minutskala till konsumenthårdvara och i grunden förändra hur vi producerar och konsumerar digitalt visuellt innehåll.

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Vad är Helios videogenereringsmodell?
A Helios är en autoregressiv diffusionsmodell med 14 miljarder parametrar för videogenerering i långformat i realtid, som kan köras i 19,5 FPS på en enskild NVIDIA H100 GPU. Den stöder text-till-video (T2V), bild-till-video (I2V) och video-till-video (V2V) med en enhetlig indatarepresentation. Helios uppnår generering i minutskala samtidigt som den matchar kvaliteten hos starka baslinjer utan att förlita sig på vanliga accelerationstekniker.
Q Kan Helios generera videor i minutskala?
A Ja, Helios stöder videogenerering i minutskala. Den är designad för generering av långa videor och använder en autoregressiv metod som genererar 33 bildrutor per segment för optimal prestanda.
Q Hur undviker Helios avvikelser (drifting) i långa videor utan KV-cache?
A Helios undviker avvikelser i långa videor genom enkla men effektiva träningsstrategier som explicit simulerar typiska felmönster för avvikelser under träningen, vilket eliminerar repetitiva rörelser vid källan. Den uppnår robusthet utan vanligt förekommande heuristiker mot avvikelser som self-forcing, felbankar eller sampling av nyckelbilder, och utan standardtekniker som KV-cache.
Q Hur står sig Helios i jämförelse med Sora 2 eller Veo 3.1?
A Helios överträffar befintliga destillerade modeller i riktmärken för både korta och långa videor samtidigt som den matchar basmodellernas prestanda. Den är avsevärt snabbare än modeller av liknande skala på en enskild H100 GPU och uppnår en genomströmning på 19,5 FPS från början till slut. Sökresultaten ger inga direkta jämförelser med Sora 2 eller Veo 3.1.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!