L’ascesa dell’intelligenza artificiale genera contenuti sempre più realistici, e alcuni creatori di contenuti sfruttano questo fenomeno per ingannare gli utenti. YouTube ha recentemente preso misure radicali contro due canali molto popolari che utilizzavano l’IA per produrre falsi trailer, ingannando così milioni di abbonati.
Le 3 informazioni da non perdere
- Due canali YouTube, KH Studio e Screen Culture, sono stati sospesi per aver utilizzato l’IA per creare falsi trailer.
- Questi canali contavano insieme più di due milioni di abbonati prima della loro sospensione.
- YouTube aveva precedentemente demonetizzato questi canali ma ha infine scelto di chiuderli per mancato rispetto delle regole di trasparenza.
L’ascesa dell’IA generativa nei contenuti digitali
L’IA generativa, che permette di creare contenuti visivi e audiovisivi di grande precisione, ha rapidamente trovato il suo posto su internet. Questa tecnologia, in costante evoluzione, è in grado di produrre immagini e video che sembrano autentiche produzioni, il che può indurre in errore gli spettatori.
Un esempio significativo è stato menzionato dal presidente della Repubblica francese, con un video virale falsamente attribuito che annunciava un colpo di stato. Questo tipo di contenuto mostra l’impatto potenziale dell’IA sulla disinformazione online.
La popolarità dei canali fraudolenti
KH Studio e Screen Culture sono due esempi di canali che hanno utilizzato l’IA per creare falsi trailer per titoli popolari come «GTA San Andreas (2025)» e un presunto ritorno della serie «Malcom In The Middle Reboot (2025)». Questi canali hanno rapidamente attirato un vasto pubblico, accumulando più di due milioni di abbonati, affascinati da questi contenuti ingannevoli.
Questi canali erano stati identificati da YouTube, che aveva inizialmente deciso di demonetizzare i loro video per costringere i creatori a indicare chiaramente che si trattava di contenuti fittizi. Tuttavia, dopo aver temporaneamente ritrovato la capacità di generare entrate, hanno continuato a ignorare le regole di trasparenza.
La risposta di YouTube ai contenuti ingannevoli
Di fronte alla persistenza di questi canali nel diffondere contenuti senza avvertimento, YouTube ha preso la decisione di sospenderli definitivamente. Questa azione solleva la questione dell’efficacia delle misure messe in atto dalla piattaforma per regolare i contenuti generati dall’IA.
La sfida per YouTube è ora determinare se si trattava di una misura isolata o se sarà seguita da una serie di azioni simili contro altri canali che utilizzano pratiche simili per ingannare gli utenti.
Contesto di YouTube e la sua lotta contro la disinformazione
YouTube, piattaforma di condivisione video fondata nel 2005, è diventata un attore principale dell’intrattenimento online, con miliardi di utenti in tutto il mondo. Nel corso degli anni, ha dovuto affrontare sfide legate alla moderazione dei contenuti, in particolare per quanto riguarda la disinformazione e i contenuti ingannevoli.
Nel tentativo di mantenere un ecosistema di contenuti affidabile, YouTube ha messo in atto varie politiche e tecnologie volte a rilevare e rimuovere i contenuti problematici. Il caso dei canali che utilizzano l’IA per creare contenuti ingannevoli sottolinea la necessità per la piattaforma di continuare a sviluppare strategie efficaci per proteggere i suoi utenti dalla disinformazione.