Intel presenta una tecnologia in grado di misurare la velocitĂ del flusso sanguigno dei valori dei singoli pixel video. Questi parametri in unâimmagine falsa creata con la tecnologia DeepFake, ad oggi, non sono replicabili correttamente.
Insieme alla State University di New York a Binghamton, Intel ha sviluppato una tecnologia chiamata FakeCatcher in grado di determinare con una precisione del 96% se un video è un deep fake.
La persona o lâazione della persona in un video, unâimmagine o un clip audio deepfake in genere non è reale. Lâintelligenza artificiale e le tecnologie di deep learning sono alla base dei video deepfake, che sono in grado di alterare il contenuto del film e presentare come reale qualcosa che non è stato effettivamente verificato. Si concentra principalmente sullâimitazione della voce e dellâaspetto di una persona. Scopo può essere indurla a dire o fare qualcosa che non ha mai detto o fatto prima.
Ci sono âchiccheâ deepfake come quelle immediatamente riconoscibili come satira o come espressione di cambio di identitĂ in situazioni come gli avatar del metaverso. Ma i video deepfake possono anche rivelare il loro incredibile potere politico quando i vincitori sono membri di istituzioni che possono trasmettere qualsiasi tipo del messaggio e risultano completamente credibili.
A differenza di altri sistemi che analizzano i dati grezzi del video per trovare falsi profondi, FakeCatcher di Intel, che si basa sullâapprendimento automatico, guarda il video come farebbe un essere umano, alla ricerca di unâinformazione specifica di cui non siamo a conoscenza.
à il flusso sanguigno (fotopletismografia) sulla testa di una persona che può essere visto attraverso i pixel di un video. Il colore delle vene cambia quando i nostri cuori pompano sangue. Questi segnali del flusso sanguigno vengono raccolti da qualsiasi punto in vista e gli algoritmi li traducono in mappe spaziotemporali.
Quindi, utilizzando il deep learning, FakeCatcher può determinare istantaneamente se un video è falso o reale. Questo perchÊ i video falsi non hanno informazioni affidabili sul flusso sanguigno.
Ă naturale a questo punto chiedersi se un video a bassa risoluzione o uno con un filtro di immagini dei social media potesse sfuggire allâattenzione di FakeCatcher.
Ilke Demir, a capo di FakeCatcher di Intel, ha indirettamente risposto a questa domanda attraverso lo spazio Twitter da lei allestito per spiegare la tecnologia. âIl team ha sviluppato un modello appropriato che tiene conto dei video in bassa risoluzione, con filtri o sfocati, e persino in quei casi FakeCatcher ha dimostrato la capacitĂ di identificare i video falsi con una precisione solo leggermente inferiore: 91%â.
In unâintervista recentemente rilasciata a VentureBeat, Demir ha affermato che per il momento FakeCatcher non può essere sfruttato dai produttori di video deepfake. Non potrebbero per adesso trovare il sistema per replicare un flusso sanguigno credibile.
Il motivo è che non è possibile trasferire la fotopletismografia creata da FakeCatcher per supportare una rete contraddittoria che genera deepfake. In alternativa, enormi set di dati sul flusso sanguigno dellâocchio che attualmente non esistono sarebbero utili se fosse possibile approssimare la fotopletismografia. O almeno, esiste un set di dati che contiene dati provenienti da almeno 40 fonti diverse che non possono essere ragionevolmente correlate tra loro.
NovitĂ in vista per le smart TV: dal mese di giugno entreranno in vigore nuovi…
Intesa Sanpaolo ha pubblicato un avviso per tutelare i clienti da possibili truffe. Online la…
I principali certificati fiscali sono accessibili anche telematicamente. Basta un computer o un cellulare dotato…
Al via i nuovi servizi INPS e NoiPA per l'adeguamento alle nuove regole imposte dalla…
Nel 2025 sono diverse le agevolazioni economiche per le partite IVA. In alcuni casi, i…
Anche nel 2025 si può usufruire del Bonus bollette e ottenere sconti sulle utenze. Un…