18/11/2022 di Redazione

Intel smaschera i deepfake analizzando la circolazione del sangue

FakeCatcher è un sistema di intelligenza artificiale che utilizza tecniche di fotopletismografia per capire se un video mostra persone reali o se è stato contraffatto.

immagine.jpg

Smascherare i deepfake analizzando il flusso sanguigno delle persone ritratte in video: è la speciale abilità della nuova tecnologia sviluppata da Intel. FakeCatcher è un nuovo metodo che permette di  analizzare i segnali biologici attraverso i pixel per distinguere le persone reali dalle immagini contraffatte con l’intelligenza artificiale. Il software è stato allenato in modo da imparare a riconoscere i piccoli cambiamenti di colore delle vene che traspaiono sulla superficie della pelle. 

 

La tecnica non è del tutto nuova: rientra nel’ambito della fotopletismografia, disciplina usata in campo scientifico e medico, nella quale si ottengono immagini che misurano le variazioni del volume di sangue in circolazione sotto la superficie della pelle. La fotopletismografia oggi non è più confinata in sofisticati apparecchi medicali: in anni recenti sono state sviluppate anche delle applicazioni che utilizzano la fotocamera dello smartphone per valutare la circolazione sanguigna e supportare i medici in alcune diagnosi.

 

Ora, però, per la prima volta Intel ha testato una tecnologia di questo tipo per lo smascheramento dei deepfake, incorporando all’interno dei processori Xeon Scalable, i più performanti dell’intera gamma. FakeCatcher analizza più fotogrammi di uno stesso video e, con tecniche di fotopletismografia, rileva i segnali visivi della circolazione ematica nel volto delle persone (reali o presunte). Il programma considera anche altri segnali biologici, analizzando gli occhi e lo sguardo, oltre a un insieme di variazioni geometriche, cromatiche e visive dei pixel. Tutti questi dati si traducono in un profilo specifico del video in esame, che viene analizzato da un classificatore. Quest’ultimo determina se il video è genuino oppure no.

 

Il sistema ha un’accuratezza di circa il 96%, superiore a quella degli attuali metodi di smascheramento basati su algoritmi di deep learning. FakeCatcher pare dunque una tecnologia promettente ma dobbiamo immaginare che, con il progresso delle tecnologie di intelligenza artificiale, i deepfake nei prossimi anni diventeranno sempre più sofisticati e difficili da smascherare. I rischi connessi a questo fenomeno spaziano dalla disinformazione alla diffamazione, dalla propaganda politica e ideologica al furto d’identità, funzionale a ricatti e truffe.

La società di Santa Clara dunque sta lavorando su più fronti per contrastare questi pericoli: è impegnata, tra le altre cose, in un progetto di ricerca multidisciplinare della University of California di Los Angeles. Inoltre si è unita ad Adobe, Arm, Intel, Microsoft e Truepic nella Coalition for Content Provenance and Authenticity (C2PA), associazione che sta sviluppando degli standard tecnologici con cui certificare l’autenticità e la provenienza dei contenuti pubblicati online.

 

scopri altri contenuti su

ARTICOLI CORRELATI