🤔Etica e Intelligence ai Tempi dell’Intelligenza Artificiale — Parte 2/2, Asimmetria

alessandro rossi🧟‍♂️💭
9 min readSep 30, 2019
AI, Intelligence, Etica e Asimmetria Temporale
AI, Intelligence, Etica e Asimmetria Temporale

Analisi in due parti su come il rapporto tra etica e intelligence, ai tempi dell’intelligenza artificiale, sia diventato quasi impossibile e necessiti essere ridefinito in base a nuovi parametri: seconda parte, gli effetti dell’asimmetria informativa.

La complessità del sistema

Nella prima parte abbiamo visto come digital transformation e globalizzazione hanno cambiato il tradizionale framework dell’intelligence a partire dai primi anni ’90 dello scorso secolo. Il mutamento, progressivo e in corso d’opera, è stato verticale, orizzontale ed obliquo. Oltre le finalità imposte della grande strategia i diversi livelli della stessa si compenetrano e si fondono: teatri, operazioni, tattiche devono essere disponibili in maniera vicendevolmente flessibile in ogni momento. In questa ottica e secondo necessità qualsiasi strumento tecnico e qualsiasi attore possono ricoprire un ruolo funzionale alla strategia.

Le etichettature hanno cessato di avere senso perché sono venuti meno i confini, tecnici ed operativi, che le definivano. Gli investimenti necessari al mantenimento della competitiva sono diventati tali che la collaborazione pubblico-privato, per uomini e mezzi, è un fattore irrinunciabile in un contesto di messa in comune massiva dell’informazione.

Il sistema quindi ha scalato nella complessità quantitativamente e qualitativamente. Si è dovuto evolvere a causa dell’innovazione tecnologica e, nel contempo, l’ha dovuta fare propria nelle forme più avanzate per poter competere. I sistemi intelligenti, AI, sono passati da supporto di elaborazione a paradigma necessario al discernimento di intelligence. La produzione automatizzata di conoscenza, che sta coinvolgendo tutti i settori, però pone l’intelligence a dover affrontare problemi che altri non hanno.

Innovazione, etica e norma

Il dibattito tra etica e innovazione (intesa anche come ricerca) non solo è vecchio come il mondo ma anche la quantità di materiale disponibile per costruirsi, o aggiornare, la propria opinione è proporzionale all’anzianità. Analisi finalizzate e recenti sono d’aiuto perché definiscono principi articolati e condivisi da ricercatori di diverse latitudini. Con l’intento pragmatico di affrontare la componente ‘tempo’ si sottolinea un aspetto, per altro ovvio, e cioè che l’innovazione nel contesto socio-culturale, quindi etico, in cui opera produce azioni prima non esistenti. Esse sono sempre antecedenti alle re-azioni del contesto stesso (reazioni dell’etica) finalizzate ad individuarne e inquadrarne gli effetti. Questo provoca per un periodo (variabile) asimmetria informativa tra i fornitori e gli utenti dell’innovazione: i primi hanno la conoscenza, i secondi ne subiscono passivamente gli effetti non solo senza mediazione ma, dato il fattore ‘novità’, anche senza riferimenti a cui rivolgersi per essere aiutati nella mediazione.

All’obiezione che così è sempre stato, perché insito nel processo di propagazione dell’innovazione, si oppongono quattro fattori che digital transformation e globalizzazione hanno mutato rispetto al passato: il tempo di propagazione, ora uguale a zero, la possibilità di disseminazione massiva, il rumore di fondo e l’impossibilità di oblio del dato. Questi elementi interagiscono nei confronti dell’asimmetria informativa in maniera esponenziale: l’innovazione è condivisa per/tra gli specialisti in tempo reale; altrettanto in tempo reale può dar luogo a poderosi sviluppi per merito di nicchie completamente sconosciute o intenzionalmente celate; rimane a lungo indistinguibile nelle reali potenzialità degli effetti a causa della mole di informazioni, anche (volutamente o meno) contraddittorie, presente nelle reti sociali per coloro che specialisti non sono; gli effetti sono non eliminabili, essendo il dato digitale mai distruttibile con certezza.

Sotto altro punto di vista il rapporto tra l’etica e la legge notoriamente non è vicendevolmente speculare . La prima riflette i valori di una collettività la seconda è basata, e condizionata, da regole culturali locali che conducono a permettere o vietare comportamenti. Se si assimila il comportamento dell’innovazione ai suoi effetti è intuibile come la componente asimmetrica a danno degli utenti aumenti: la legge impiega tempo a evidenziare, valutare un comportamento e considerarne variabilmente leciti gli effetti.

Un’osservazione che ricorre spesso, soprattutto nel mondo anglosassone, è che la legge è molto più rapida dell’etica nel cogliere le distorsioni del ‘nuovo’ e metterci una pezza. Questa linea di pensiero funzionava quando la legge di Moore era il fattore radicale, e cioè si ragionava in termini di miglioramenti della velocità computazionale: adesso i parametri sono cambiati, la velocità è solo uno dei fattori incrementali (comunque importante) che conduce l’algoritmo a produrre output cognitivamente significativi. Altri sono, per esempio, l’accuratezza nella definizione del dominio, le librerie dirette ed indirette a disposizione, i sistemi di rilevazione e correzione dei bias, tutte cose che a parità di capacità di computazione con essa hanno poco a che fare, a meno di cambiamenti di sistema o paradigma. La legge quindi è ora imbrigliata in una multi dimensione di input che impedisce una reazione almeno più pronta dell’etica, come si verificava in precedenza.

Ecco allora che si ritorna al problema del gap temporale: chi gestisce l’innovazione possiede tutte le chiavi per strumentalizzarla a proprio favore e chi subisce il nuovo non ha le chiavi di difesa, non essendo conscio per lungo tempo del problema. Prima che etica e normativa siano in grado di elaborare e produrre mediazione il gap è in grado di dare luogo ad azioni con esito potenziale incerto, in termini di lecito-illecito/etico-non-etico, gestite da pochi sulla testa di molti. Il discorso esula i concetti connessi al tempo espressi nelle teorie dell’innovazione aziendale e sistemica (vedi Schumpeter e connessi) ed ha un percorso proprio perché impatta gli interessi degli stakeholder deboli con minore sapere specifico, e cioè gli utenti finali. In altre parole risulta difficile immaginare di inizializzare un movimento di opinione a favore dell’osservazione o della regolamentazione di una causa se non si è consapevoli che essa esista.

Nell’intelligence, non importa se pubblica o privata, lo scenario è questo. Le applicazioni di AI, nei diversi stadi del ciclo di formazione dell’informazione, rendono il ‘tecnicamente effettuabile’ per ragioni di investimenti e di padronanza ingegneristica un Graal in possesso di pochi che riversa i suoi effetti sui molti inconsapevoli. Con le dovute differenziazioni tra sicurezze nazionali ed operatività di natura privata, il problema non è valutare comportamenti, o sancire (o prevedere cosa sancire) ma l’assenza di consapevolezza nel target.

La padronanza ingegneristica permette inoltre, a carte in tavola e per un determinato periodo, quella che viene definita ‘ignoranza strategica’, e cioè deviare ipocritamente la responsabilità verso fantomatici bias di auto apprendimento e black box di diversa natura, e cioè le macchine. Notoriamente gli algoritmi in fase di inizializzazione né si progettano (e si codificano) da soli né vengono lasciati a se stessi, in fase di auto-apprendimento e produzione on-line di output, nel comportamento se quest’ultimo non è in linea con l’obiettivo che ci si è preposto.

Francamente a chi scrive interessa poco se periodicamente a qualcuno dei FAMANG, o dei protagonisti di minore cabotaggio, viene imposta una sanzione milionaria in base al GDPR o altra normativa per comportamento illecito. Primo, perché le reprimende in denaro sono il costo, già in budget, del rischio dell’azione; secondo, perché le multe sono di importo tale da non intaccare minimamente la redditività aziendale, quindi non hanno nessun effettuo dissuasivo rispetto comportamenti futuri; terzo, perché il danno è fatto e non c’è maniera per tornare indietro.

Non si tratta di giustizialismo digitale: sarebbe stupido per la natura stessa dell’innovazione. Si tratta però di escogitare processi di tutela informativa dell’utenza che perlomeno, ed in attesa delle valutazioni culturali e normative, la metta al corrente della fenomenologia.

A meno di non fare affidamento sulla ciclicità di eventi, tipo Snowden o Cambridge Analityca che casualmente scoprono il vaso di Pandora, e sempre e comunque quando il danno è fatto, ora non esiste nessuna protezione informativa. Esistono ottimi think-thank e organizzazioni attive in tema di digital right, anche dal lato investigativo, a livello locale come sovranazionale, ma sono improntate su modelli pre-rivoluzione della produzione della conoscenza. Nella loro nicchia informano pochi eletti e fanno da riferimento ai decisori etici, politici e legislativi secondo i tempi di questi ultimi: nessuno ha ancora adottato un modello che si adatti alla velocità di implementazione di AI nell’intelligence e lo utilizzi per informare in tempi utili la massa degli utenti.

Intelligence ed etica

Il rapporto tra intelligence ed etica l’ha definito pragmaticamente, e significativamente, Michael Hayden (ai vertici dell’intelligence USA a cavallo del nuovo decennio, al comando in tempi diversi di NSA, CIA e altro) circa dieci anni fa quando trasmise l’immagine di un bersaglio, con il centro che rappresenta il ‘politicamente sostenibile’ e, progressivamente, tre concentrici verso l’esterno che rappresentano rispettivamente il ‘legale’, l’’operativamente sostenibile’ e il ‘tecnologicamente fattibile’. Con uno sforzo di accomunamento della locuzione politically correct con ‘eticamente sostenibile’ il discorso nel suo insieme potrebbe filare: l’asimmetria informativa oggi pone però dubbi.

Se si parla di sicurezza nazionale, quindi di attività di intelligence statuale, è condiviso che le agenzie si devono attenere agli input dei decisori politici e alla normative (speciali e non) per loro previste, qualunque sia la natura del regime. Se l’asimmetria informativa permette ‘il tecnologicamente fattibile’, in assenza di valutazioni normative e politiche che ne affrontino gli effetti, gli operatori (di qualsiasi livello) saranno tranquilli, in quanto a responsabilità nei confronti dell’illecito: il singolo sottoposto al ‘fattibile’ un po’ meno.

Secondo punto, che significato ha ‘sicurezza nazionale’ (quali sono i suoi perimetri) in un contesto di assenza di norma o di consapevolezza politica della tecnologia applicata se essa è ‘operativamente sostenibile’ in aree di interesse pubblico connesse, come per esempio lotta alla criminalità e/o fisco? Anche in questo caso l’attore pubblico che operativamente applica la tecnologia né commette illecito (esso non esiste ancora) né è politicamente scorretto (rispetto ad un input politico anch’esso non-esistente), anzi compie al meglio il suo lavoro: in quale maniera il singolo è tutelato?

Se dieci anni fa il paradigma era ‘raccogliere quanto più possibile perché prima o dopo può servire’ adesso AI mette a disposizione la tecnologia per servirsene al meglio in tempo reale: se prima la raccolta massiva era finalizzata a fare magazzino in vista di necessari futuri usi (finalizzati a contrastare comportamenti illeciti) ora essa è utilizzata per performare comportamenti o predittività comportamentali massive. Ancora, in quale maniera il singolo è tutelato se questi effetti bypassano le due aree centrali del bersaglio di Hayden perché non conosciuti? Ecco che il bersaglio deve essere rivisto con nuova prospettiva.

Più recentemente Sir David Omand, (ex capo del britannico GCHQ) nel corso della revisione dell’Investigation Power Act emanato nel 2016, ebbe a dire che il rapporto tra etica e intelligence nazionale deve essere quello di una ‘guerra giusta’. Per sottolineare il concetto David Anderson (Queen’s Counsel in ambito del terrorismo), nel medesimo processo di modifica legislativa, disse a proposito della pervasività dell’intelligence che essa deve avere i massimi poteri e che il problema è quando esercitarli. La stesura definitiva dell’ACT ha fatto propri questi e altri suggerimenti con la conseguenza che il bersaglio di Hayden è stato cancellato nelle due sue aree più prossime al centro, aggiornandolo alla realtà fattuale. Poco importa se l’ACT è risultato un’aberrazione dei diritti civili ed è il provvedimento più impugnato degli ultimi anni nel Regno Unito: lo scopo di eliminare il problema etico è stato raggiunto permettendo normativamente, praticamente, tutto.

Pertanto con le intelligence nazionali si è al punto che i cittadini (gli utenti), in un ambito ‘traslucido’ come lo definì Michael Leither (alla testa del Centro Nazionale Antiterrorismo sotto George W. Bush) con discreta preveggenza, sono al corrente di essere massivamente tracciati, rilevati, archiviati in ogni loro performance digitale, biometrica e (progressivamente, tra poco) bio-genetica. Nessuno però né è in grado di sapere come vengono usati questi dati, né da chi e neppure quale tecniche di deduzione automatica comportamentale e predittiva vengono applicate e per quali fini. È la ‘giusta guerra’ senza limiti di cui si diceva nel precedente post.

Per l’intelligence privata sono bastevoli poche righe. Esistono solo i perimetri dell’’operativamente sostenibile’ e del ‘tecnologicamente fattibile’ e tutto il resto è lasciato all’etica individuale che, come da evidenze quotidiane, è (per usare un eufemismo) estremamente elastica. D’altronde se il contesto è l’era del ‘capitalismo della sorveglianza’ diversamente non potrebbe essere, pena la sopravvivenza stessa del modello di profitto. Agli utenti rimane il ‘legale’ che, approssimativamente e secondo le diverse legislazioni, permette di essere informati quando va bene con un gap di tre anni.

Che fare quindi?

Da un lato si hanno le agenzie statuali che devono applicare l’’intelligence senza limiti’ perché ritenuta politicamente necessaria ai propri fini. Nel fare questo si utilizzano per necessità le risorse dell’intelligence privata, per la quale il termine ‘etico’ (quando preso in considerazione) è un ossimoro rispetto al significato di ‘limite’ . Se così non fosse il vantaggio competitivo dell’una e dell’altra sarebbe impossibile. Nel mezzo la modalità di sviluppo dell’innovazione che permette né un informativa condivisa né l’approntamento in tempi utili di regole a salvaguardia dei comportamento potenzialmente illecito.

Dall’altro lato si hanno gli utenti che progressivamente sotto qualsiasi regime apprendono, con un ritardo che rende quasi inutile la stessa presa di coscienza, di essere entrati in bolle di sorveglianza delle abitudini e predittività comportamentali per cui 1984 di Orwell o Black Mirror sono favole per bambini.

Recenti sondaggi indicano che la problematica non è ai primi posti nelle preoccupazioni dei cittadini, anche in paesi che presentano il binomio per cui ad un’alta penetrazione della tecnologia si combina un’alta sensibilità dei propri diritti. Lo scenario non sorprende per due motivi: il primo la tematica è giovane e, secondo, appunto l’informativa è carente per ciò che si è detto.

A fronte di un’intelligence senza limiti ed al consolidamento del modello del capitalismo della sorveglianza la risposta dovrebbe essere una tipologia di counter-intelligence sociale, diffusa, collettiva e ‘senza limiti’, che permetta creazione di movimenti di opinione efficaci per reazione temporale, sul modello di ciò che è avvento per l’ambiente.

Al momento non esiste nulla di ciò.

--

--

alessandro rossi🧟‍♂️💭

Innovation Intelligence Analyst| Meditator Zombie| Hikikomori White-Haired| Digital Borderline| Has A Black Hole Under The Pillow| A Bad Product Of💜Venezia🦁