SOCMINT: DeepFake e AI

Archivio, 26 maggio 2018, social intelligence e deepfake
Un paio di mesi fa ci si è (pre)occupati, a livello di rumor, di mettere in luce una problematica SOCMINT prevista in rapida evoluzione, i video fake appartenenti alla famiglia dei deepfake. La questione ora sale di autorevolezza, e livello, per merito di un approfondimento del Review del MIT, il quale mette in evidenza come DARPA, l’agenzia militare statunitense per la ricerca sull’innovazione, abbia bandito un contest nell’ambito dei processi AI ad utilizzo forense per riuscire a smascherare i video contraffatti.
Accademici d’oltreoceano, con abitudini operative di intelligence predittiva, sottolineano il fatto che si è di fronte ad una nuova seria minaccia di manipolazione dell’informazione che va oltre quanto fino ad oggi riscontrato. Infatti accanto ai video fake di pari passo procede il resto del deepfake, quindi la contraffazione dell’audio e dei contesti ambientali, facendo quindi non solo fare ma anche dire al target manipolato quello che si vuole e dove si vuole, con voce originale e contenuto adatto al proprio fine. A questo proposito emblematici, lato audio, i risultati ad oggi ottenuti dal progetto Duplex di Google.
Quindi a livello di scenario, per chi lavora nell’intelligence e nel forensic, si è dell’avviso che un ‘alert’ circostanziato sia utile: si sta andando oltre l’ambito ‘funny’, applicativo dimostrativo, o del canale ‘celebrities’ dei portali porno per approdare a potenziali minacce mistificatorie ad alto rischio.