Intel presenta una tecnologia in grado di misurare la velocità del flusso sanguigno dei valori dei singoli pixel video. Questi parametri in un’immagine falsa creata con la tecnologia DeepFake, ad oggi, non sono replicabili correttamente.
Insieme alla State University di New York a Binghamton, Intel ha sviluppato una tecnologia chiamata FakeCatcher in grado di determinare con una precisione del 96% se un video è un deep fake.
La persona o l’azione della persona in un video, un’immagine o un clip audio deepfake in genere non è reale. L’intelligenza artificiale e le tecnologie di deep learning sono alla base dei video deepfake, che sono in grado di alterare il contenuto del film e presentare come reale qualcosa che non è stato effettivamente verificato. Si concentra principalmente sull’imitazione della voce e dell’aspetto di una persona. Scopo può essere indurla a dire o fare qualcosa che non ha mai detto o fatto prima.
Ci sono “chicche” deepfake come quelle immediatamente riconoscibili come satira o come espressione di cambio di identità in situazioni come gli avatar del metaverso. Ma i video deepfake possono anche rivelare il loro incredibile potere politico quando i vincitori sono membri di istituzioni che possono trasmettere qualsiasi tipo del messaggio e risultano completamente credibili.
Intel esamina la circolazione sanguigna del viso per determinare se il video è reale o meno.
A differenza di altri sistemi che analizzano i dati grezzi del video per trovare falsi profondi, FakeCatcher di Intel, che si basa sull’apprendimento automatico, guarda il video come farebbe un essere umano, alla ricerca di un’informazione specifica di cui non siamo a conoscenza.
È il flusso sanguigno (fotopletismografia) sulla testa di una persona che può essere visto attraverso i pixel di un video. Il colore delle vene cambia quando i nostri cuori pompano sangue. Questi segnali del flusso sanguigno vengono raccolti da qualsiasi punto in vista e gli algoritmi li traducono in mappe spaziotemporali.
Quindi, utilizzando il deep learning, FakeCatcher può determinare istantaneamente se un video è falso o reale. Questo perché i video falsi non hanno informazioni affidabili sul flusso sanguigno.
Parliamo di una tecnologia affidabile?
È naturale a questo punto chiedersi se un video a bassa risoluzione o uno con un filtro di immagini dei social media potesse sfuggire all’attenzione di FakeCatcher.
Ilke Demir, a capo di FakeCatcher di Intel, ha indirettamente risposto a questa domanda attraverso lo spazio Twitter da lei allestito per spiegare la tecnologia. “Il team ha sviluppato un modello appropriato che tiene conto dei video in bassa risoluzione, con filtri o sfocati, e persino in quei casi FakeCatcher ha dimostrato la capacità di identificare i video falsi con una precisione solo leggermente inferiore: 91%”.
In un’intervista recentemente rilasciata a VentureBeat, Demir ha affermato che per il momento FakeCatcher non può essere sfruttato dai produttori di video deepfake. Non potrebbero per adesso trovare il sistema per replicare un flusso sanguigno credibile.
Il motivo è che non è possibile trasferire la fotopletismografia creata da FakeCatcher per supportare una rete contraddittoria che genera deepfake. In alternativa, enormi set di dati sul flusso sanguigno dell’occhio che attualmente non esistono sarebbero utili se fosse possibile approssimare la fotopletismografia. O almeno, esiste un set di dati che contiene dati provenienti da almeno 40 fonti diverse che non possono essere ragionevolmente correlate tra loro.