Deepfakes: cambiare il viso di una persona su un video

Deepfakes

Come impedire alle persone di usare il tuo viso per video falsi su internet. Se un’immagine vale più di mille parole, un video vale più di mille foto. Finché i video sono esistiti, ci siamo fidati di loro come una forma affidabile di prova.

Tuttavia, quel fondamento di fiducia si sta lentamente affievolendo mentre una nuova generazione di video modificati dall’IA trova la sua strada nel mainstream. Conosciuti come “deepfakes”, i video sintetici vengono creati utilizzando un’applicazione chiamata FakeApp, che utilizza l’intelligenza artificiale per scambiare i volti in un video con quelli di un’altra persona.

FakeApp l’ app che può cambiare il volto nei video

Fin dalla sua prima apparizione all’inizio di questo mese, FakeApp ha raccolto un grande successo e centinaia di migliaia di download. E un numero considerevole dei suoi utenti era interessato a utilizzare l’applicazione per usi discutibili.

La creazione di video falsi non è una novità, ma in precedenza richiedeva l’accesso a hardware speciale, esperti e un sacco di soldi. Ora puoi farlo comodamente da casa, con una workstation con una scheda grafica decente e una buona quantità di RAM.

I risultati dei deepfakes sono ancora acerbi. Molti di loro hanno evidenti artefatti che rivelano la loro falsità. Anche quelli più convincenti sono distinguibili se si guardano da vicino. Ma è solo una questione di tempo prima che la tecnologia diventi abbastanza buona da ingannare anche gli esperti addestrati.

Come si crea un deepfakes

Il deepfakes non è magia, è pura matematica. L’applicazione utilizza una funzione di deep learning , il che significa che si affida alle reti neurali per svolgere le sue funzioni. Le reti neurali sono strutture software progettate in modo approssimativo dal cervello umano.

Quando si fornisce a una rete neurale molti campioni di un tipo specifico di dati, ad esempio le immagini di una persona, essa imparerà a eseguire funzioni quali rilevare il volto di quella persona nelle foto o, nel caso di deepfakes, sostituire la faccia di un’altra persona con essa.

Tuttavia, deepfakes soffre degli stessi problemi che tutte le applicazioni di deep learning fanno: si basa troppo sui dati . Per creare un buon video fasullo, i deepfakers hanno bisogno di molte immagini del viso della persona nel video originale (che non è un problema se lo hanno creato da soli) e della persona il cui volto sarà inserito nella produzione finale. E hanno bisogno delle immagini da varie angolazioni e con una qualità decente.

Ciò significa che sarà difficile fare un deepfake da una persona a caso perché il deepfaker dovrà in qualche modo raccogliere migliaia di immagini della persona in questione. Ma celebrità, politici, atleti e altre persone che appaiono regolarmente in televisione o pubblicano un sacco di foto e video online sono a rischio deepfaking.

Usi scorretti dei video modificati

Poco dopo la pubblicazione di FakeApp, è emerso un sacco di pornografia falsa che coinvolgeva personaggi famosi, star del cinema e politici a causa dell’abbondanza di foto e video online disponibili.

Il contraccolpo che questi video hanno causato nei media e nelle discussioni di esperti e legislatori ci fornisce un’anteprima del disordine e del caos che la contraffazione generata da AI può scatenare in un futuro non troppo lontano. Ma la vera minaccia dei deepfakes e che altri mezzi di comunicazione con intelligenza artificiale deve ancora emergere.

Quando metti i deepfakes accanto ad altri strumenti basati sull’intelligenza artificiale in grado di sintetizzare la voce umana ( Lyrebird  e Voicery ), la scrittura e lo stile di conversazione , l’impatto negativo può essere immenso.

 

Come contrastare i deepfakes

Quindi, come puoi dimostrare l’autenticità dei video e garantire l’uso sicuro degli strumenti di sintesi artificiale? Alcuni degli esperti con cui ho parlato suggeriscono che sensibilizzare sarà un primo passo importante. Educare le persone sulle capacità degli algoritmi di intelligenza artificiale sarà una buona misura per prevenire il cattivo utilizzo di applicazioni come FakeApp che hanno un impatto diffuso, almeno nel breve periodo.

Anche le misure legali sono importanti. Al momento, non esistono protezioni serie per proteggere le persone da registrazioni audio o contraffatte. Mettere pesanti sanzioni sulla pratica aumenterà i costi per la creazione e la pubblicazione (o l’hosting) di materiale falso e servirà da deterrente contro i cattivi usi della tecnologia.

Ma queste misure saranno efficaci solo se gli umani saranno in grado di distinguere tra i media falsi e quelli reali. Una volta che la tecnologia sarà matura, sarà quasi impossibile dimostrare che uno specifico video o registrazione audio è stato creato da algoritmi AI.

Nel frattempo, qualcuno potrebbe anche approfittare dei dubbi e dell’incertezza che circondano la falsificazione di AI per affermare che un vero video che ritrae loro che commettevano un crimine era il lavoro dell’intelligenza artificiale. Anche questa affermazione sarà difficile da ridimensionare.

Conclusioni

State attenti ai video che guardate perchè anche questi potrebbero ora essere falsi come tante notizie e foto ora in rete manipolati ad arte per diffamare, avere consensi e tanto altro.