YouTube non vede l'ora Ampliare le informazioni sui contenuti generati dall'intelligenza artificialecon un nuovo elemento all'interno di Creator Studio che i creatori dovranno svelare Quando caricano contenuti dall'aspetto realistico creati utilizzando strumenti di intelligenza artificiale.
Come puoi vedere in questo esempio, ai creatori di YouTube verrà ora chiesto di selezionare la casella quando il contenuto che caricano viene alterato o artificiale e sembra reale, per evitare deepfake e disinformazione tramite immagini manipolate o simulate.
Quando selezioni la casella, verrà visualizzato un nuovo contrassegno sul tuo video, facendo sapere allo spettatore che non si tratta di un filmato reale.
Secondo Youtube:
“La nuova etichetta mira a migliorare la trasparenza con gli spettatori e a creare fiducia tra i creatori di contenuti e il loro pubblico. Alcuni esempi di contenuti che richiedono la divulgazione includono l'uso dell'immagine di una persona nella vita reale, Cambiando inquadrature di eventi o luoghi reali, E genera scene realistiche.
YouTube sottolinea inoltre che non tutti gli usi dell'intelligenza artificiale richiedono la divulgazione.
Queste nuove regole non includono script ed elementi di produzione generati dall’intelligenza artificiale, mentre “contenuti visibilmente non realistici” (ad esempio animazioni), regolazioni del colore, effetti speciali e filtri di bellezza saranno sicuri da usare senza la nuova divulgazione.
Ma i contenuti potenzialmente fuorvianti dovranno essere etichettati. Se non ne aggiungi uno, anche YouTube può aggiungerne uno per te, se rileva l'uso di contenuti multimediali sintetici e/o manipolati nella clip.
È il prossimo passo di YouTube nel garantire la trasparenza dell'intelligenza artificiale, con la piattaforma già operativa Annuncio di nuovi requisiti Di rivelare l’uso dell’intelligenza artificiale nell’ultimo anno, con etichette che informeranno gli utenti di questo utilizzo.
Questo nuovo aggiornamento rappresenta la fase successiva di questo sviluppo, aggiungendo ulteriori requisiti di trasparenza con contenuti emulati.
Che è buono. Infatti, abbiamo visto Le immagini create causano confusionementre le campagne politiche utilizzano immagini manipolate, sperando di influenzare le opinioni degli elettori.
Sicuramente l’intelligenza artificiale sarà utilizzata sempre di più.
L’unica domanda quindi è: per quanto tempo saremo effettivamente in grado di scoprirlo?
Su questo fronte si stanno testando varie soluzioni, comprese le filigrane digitali per garantire che le piattaforme sappiano quando è stata utilizzata l’intelligenza artificiale. Ma questo non si applicherebbe, ad esempio, alla copia di una copia, se l’utente reinventasse il contenuto AI sul proprio telefono, ad esempio rimuovendo eventuali scansioni.
Ci saranno modi per aggirare questo problema e, poiché l’intelligenza artificiale generativa continua a migliorare, soprattutto nella generazione di video, diventerà sempre più difficile sapere cosa è reale e cosa non lo è.
Regole di divulgazione come queste sono cruciali, perché offrono alle piattaforme un modo per farle rispettare. Ma potrebbe non essere efficace per molto tempo.
“Pluripremiato specialista televisivo. Appassionato di zombi. Impossibile scrivere con i guantoni da boxe. Pioniere di Bacon.”