AI: Innovazione in Contesti Illeciti

Archivio, 20 maggio 2018, intelligence e predittivitĂ dâuso dellâAI
Con il fine di portare il discorso sullâintelligenza artificiale (AI), in generale si riscontra un bias cognitivo abbastanza diffuso, in sede di analisi di intelligence, per cui si tende a sottovalutare i tempi di adozione dellâinnovazione tecno-sociale per scopi illeciti, per esempio di terrorismo e criminalitĂ organizzata ovvero come fattore di rischio nellâintelligence privata.
Questo è un errore, di solito dovuto sia dalla mancanza di consapevolezza dei potenziali fenomeni innovativi, e delle loro eventualitĂ , da parte di interi settori di analisi dedicata (bias di natura strutturale), sia dal non considerare il fatto per cui lâinnovazione ha matrice quasi esclusivamente digitale. Il secondo fattore ha caratteristiche di sviluppo da una parte, primariamente, in ambienti open source, e quindi con âcodingâ ormai a tutti disponibili in fase di progettazione; sotto altra ottica le applicazioni illecite sono prodotte e messe in linea da persone estremamente giovani, con network digitali relazionali, soprattutto professionali, globali, i quali sono i medesimi utilizzati per sviluppare applicazioni lecite di mercato.
Il risultato quasi sempre è la fornitura di scenari che magari tengono conto dello stato dellâarte, in base allâadozione attuale di determinate bad-solution riscontrata dalle fonti, ma non sono in grado di fornire alert su ciò che potrebbe essere: quindi un eterno ritardo nelle contromisure.
Casi eclatanti sono la blockchain (qui giĂ affrontata sotto il âtopicâ delle potenzialitĂ illecite delle ICO) ed i droni. Per questi ultimi gli esempi di utilizzo da parte dellâIS e della criminalitĂ stanno a testimoniare il ritardo previsionale.
Quindi, passando allâAI, quali potrebbero essere eventuali sviluppi in chiave illecita, considerando che praticamente tutto il bagaglio progettuale e molte librerie sono open source ed il costo di adattamento, software e hardware, atti allo scopo è molto basso? Anzitutto il potenziamento della pianificazione virtuale, punto di forza per esempio IS fino ad ora in tema di reclutamento, di comunicazione social in chiaro e crittografata (da e per cellule e lone wolf), e di viralitĂ con fini propagandistici post azione. Attraverso AI tutte queste funzionalitĂ vengono di molto rafforzate e securizzate: in ambito di counter intelligence si può citare lâindividuazione selettiva tramite social degli obiettivi e dei loro punti deboli. Non si tratta di mera e maggiore forza computazionale a disposizione ma di nuovi teatri operativi e tattici in forza di tecniche di automatizzazione dellâoperato di selezione dei diversi target, risparmiando persone, identitĂ e tempo di presenza in rete, utile a non farsi individuare. Traslare il discorso riguardo pianificazione virtuale dal terrorismo alle necessitĂ di criminalitĂ organizzata, o di competitor disonesti, è abbastanza evidente. Altro macro impiego dellâAI per scopi illeciti è previsto riguardo lâingegneria sociale. I chatbot, se da una parte sono ottimi strumenti di comunicazione automatizzata, sotto altro punto di vista possono essere molto utili a fini manipolativi, come evidenziato per esempio nellâambito del controllo di opinione nei paesi in cui essi sono giĂ realtĂ come forma di comunicazione politica e di mktg, fornendo fondamentale supporto a Human Virtual Intelligence. Infine la geomatica, fornita a basso prezzo e con finalitĂ targettizzabili, che va oltre la mappatura ed il controllo dei dati fisici dei territori fornendo, in tempo zero, soluzioni alternative in relazione al tutte le caratteristiche geo-sociali in cui si svolge lâoperazione interessata. Quanto descritto deve costituire ipotesi di scenario di intelligence, tanto privata che istituzionale, senza attendere la comparsa dei primi episodi, anche minimi, di rilevanza diretta: infatti nessun progetto IARPA attualmente è esente dallâessere contestualizzato attraverso diverse coniugazioni di AI.