Un creator, una pipeline e video per dormire da sei ore
Il 30 dicembre 2025, Fortune ha pubblicato un'intervista a un creator di 22 anni di nome Adavia Davis, il quale afferma che il suo portfolio di canali YouTube "faceless" genera circa dai 40.000 ai 60.000 dollari al mese — circa 700.000 dollari all'anno — e richiede solo un paio d'ore di supervisione al giorno. Gli articoli e gli screenshot esaminati da Fortune mostrano video lunghi e prodotti a basso costo (inclusi documentari di sei ore di "storia per dormire") che utilizzano script automatizzati, narrazione sintetica e immagini in loop per accumulare visualizzazioni mentre gli spettatori fanno altro — o dormono.
Anatomia della pipeline di contenuti AI
Ciò che Davis e altri creator descrivono come un business è meno uno studio tradizionale e più una pipeline software: un insieme di strumenti che assemblano prompt testuali, voci sintetiche e immagini di repertorio o generate in video lunghi, ripetitivi ed economici da produrre. Nel caso di Davis, lo stack includerebbe uno strumento interno chiamato TubeGen per orchestrare la produzione, Claude di Anthropic per generare gli script ed ElevenLabs per produrre una narrazione realistica — i pezzi vengono poi assemblati in caricamenti di lunga durata. Fortune ha riportato costi di produzione di appena 60 dollari per ogni video lungo e margini operativi molto elevati sulle entrate mensili.
Queste scelte sono deliberate. Le lunghe durate e l'audio costante sono un modo per catturare il watch time — il segnale più importante che YouTube utilizza per classificare e raccomandare i contenuti — mentre la narrazione sintetica e le immagini preimpostate permettono ai creator di scalare fino a dozzine o centinaia di caricamenti senza assumere grandi team. Il risultato sono canali "faceless" che sembrano intercambiabili ma che, su larga scala, possono comunque attirare milioni di visualizzazioni giornaliere.
Quanto è esteso il fenomeno?
Ricerche indipendenti suggeriscono che Davis faccia parte di una tendenza molto più ampia. Kapwing, un'azienda di video-editing che ha analizzato migliaia di canali, ha scoperto che una fetta significativa di video raccomandati ai nuovi utenti rientra ora nella categoria di "AI slop" o "brainrot" generati dall'intelligenza artificiale e di bassa qualità — formati progettati per monetizzare l'attenzione piuttosto che premiare il coinvolgimento con uno storytelling originale. Il campionamento di Kapwing e un feed ricreato per un nuovo account hanno identificato video "AI-slop" tra le prime centinaia di raccomandazioni e hanno stimato miliardi di visualizzazioni cumulative e decine di milioni di entrate pubblicitarie attraverso tali canali. The Guardian e altre testate hanno riassunto tale ricerca alla fine di dicembre 2025.
L'analisi di Kapwing è rilevante perché collega le storie di successo individuali a un modello sistemico: quando le raccomandazioni algoritmiche premiano l'elevato tempo di visione indipendentemente dal valore informativo, gli incentivi pendono verso la produzione di massa. Questo spiega perché i creator in grado di automatizzare la narrazione e il montaggio ottengano un rapido vantaggio competitivo iniziale.
Il rompicapo delle piattaforme: monetizzazione, moderazione e regolamentazione
Questi incentivi si scontrano ora con le policy delle piattaforme. Le regole di monetizzazione di YouTube — aggiornate e chiarite nel corso del 2025 — limitano esplicitamente i contenuti non autentici, ripetitivi o prodotti in serie dal guadagno di entrate pubblicitarie se non offrono un valore distinto in ogni caricamento. Le linee guida pubbliche dell'azienda sottolineano che i canali devono dimostrare originalità e un significativo input umano per rimanere idonei al YouTube Partner Program. Ciò crea un delicato equilibrio legale e commerciale per i creator che dipendono da pipeline automatizzate: piccoli aggiustamenti nell'applicazione delle policy, nelle preferenze degli inserzionisti o nell'algoritmo di raccomandazione possono cambiare radicalmente la capacità di guadagno di un canale.
Fortune ha riferito che gli screenshot dei guadagni e i registri AdSense esaminati supportano le affermazioni del creator sulle entrate; tuttavia, l'attività di controllo della piattaforma rimane l'incognita principale. YouTube ha dichiarato che perfezionerà gli strumenti di monitoraggio e combinerà il rilevamento automatizzato con la revisione umana per intercettare i caricamenti di massa a basso valore — il che potrebbe ridurre o rimuovere la monetizzazione dai canali che superano il limite.
Economia, scalabilità e fragilità
Il calcolo finanziario dietro un canale guidato dall'AI è semplice: basso costo variabile per video, alta leva finanziaria derivante dai tassi pubblicitari e, per alcune nicchie, abitudini di visione "evergreen" prevedibili (sonno, ambiente, compilation). Fortune ha riportato stime dei costi operativi per Davis di circa 6.500 dollari al mese a fronte di ricavi nell'ordine delle decine di migliaia, implicando margini insolitamente alti. Questo tipo di redditività spiega perché i creator si affrettino verso formati facilmente sfruttabili.
Ma la stessa leva crea fragilità. Il business dipende da tre sistemi esterni che possono cambiare da un giorno all'altro: l'algoritmo di raccomandazione, la domanda degli inserzionisti e l'applicazione delle policy della piattaforma. Grandi gruppi editoriali o operatori ben finanziati potrebbero industrializzare gli stessi formati più velocemente e su scala maggiore, spingendo i creator indipendenti verso una competizione sui prezzi. E se gli acquirenti di pubblicità o YouTube decidessero di restringere il bacino di contenuti generati dall'AI monetizzabili, i margini potrebbero evaporare rapidamente.
Etica, danni al pubblico e sicurezza dei minori
Oltre all'aspetto economico, l'ascesa dell'AI-slop solleva questioni etiche. Alcuni canali imitano la programmazione per bambini o riutilizzano materiale culturale con scarsa supervisione; altri caricamenti utilizzano "shock-bait" o micro-manipolazioni (errori di ortografia intenzionali, un flash fotogramma per fotogramma per innescare il riavvolgimento) per manipolare le metriche di engagement. Queste tattiche erodono la fiducia e possono esporre i bambini e gli spettatori vulnerabili a contenuti inappropriati. I moderatori delle piattaforme e i legislatori stanno ancora cercando di capire come bilanciare gli usi creativi degli strumenti sintetici con i danni che emergono quando la scala e l'automazione sostituiscono il giudizio editoriale.
Cosa faranno ora i creator
Per i creator che attualmente traggono profitto dalle pipeline automatizzate, la strategia a breve termine è la diversificazione e la difendibilità: costruire relazioni dirette con il pubblico al di fuori di YouTube, vendere corsi o servizi e integrare formati che dimostrino un chiaro input umano. Lo stesso Davis ha suggerito che l'autenticità riacquisterà valore di scarsità man mano che i contenuti AI satureranno il mercato; questa è una strategia comune tra i creator che sopravvivono agli scossoni delle piattaforme.
Per le piattaforme e i regolatori, la sfida è tecnica e normativa: rilevare e limitare l'automazione di basso valore senza soffocare gli usi legittimi degli strumenti generativi. Le policy aggiornate di YouTube tentano di tracciare questa linea, ma l'applicazione sarà una continua corsa agli armamenti tra i sistemi di rilevamento e i creator che ottimizzano i contenuti per segnali di engagement opachi.
Verso dove si sta dirigendo questo mercato
Davis e altri intravedono una stretta finestra di redditività prima che concorrenti ben finanziati industrializzino gli stessi formati. Ha dichiarato a Fortune di aspettarsi che i singoli individui abbiano tempo fino al 2027 circa prima che arrivino "gli squali" — intendendo aziende più grandi con capitali e infrastrutture in grado di superare i piccoli operatori indipendenti. Se ciò accadrà dipenderà dai mercati pubblicitari, dall'intensità dei controlli delle piattaforme e dalla possibilità che gli spettatori inizino a rifiutare contenuti a basso valore ottimizzati algoritmicamente. Ciò che è chiaro è che le dinamiche economiche che hanno reso un singolo creator un business da 700.000 dollari sono un sintomo visibile di più ampi disallineamenti di incentivi tra piattaforme, inserzionisti e interesse pubblico.
Per ora, la storia è un caso di studio su come i nuovi blocchi costruttivi dell'AI — modelli linguistici di grandi dimensioni per la sceneggiatura, sintesi vocale di alta qualità per la narrazione e pipeline di editing automatizzate — possano intrecciarsi in attività redditizie a bassa intensità di lavoro. È anche un promemoria del fatto che sono le dinamiche delle piattaforme, e non solo il genio o l'intraprendenza, a decidere se tali attività saranno durature.
Fonti
- Kapwing (rapporto di ricerca: analisi "AI slop")
- Anthropic (modelli Claude e documentazione)
- ElevenLabs (documentazione di prodotto per la generazione vocale AI)
- YouTube / Google (documenti sulle policy di monetizzazione dei canali e del YouTube Partner Program)
Comments
No comments yet. Be the first!