AI e Professioni Legali: Accademia, Pregiudizi ed Efficienza
Archivio, 19 giugno 2019, accademici e legaltech
Un’ analisi prospettica con riguardo i limiti nell’applicabilità dei sistemi di AI alle professioni legali è stato pubblicato dall’amico Paolo Moro nell’edizione di maggio del ‘Journal of Ethichs and Legal Technologies’. L’autore, in estrema sintesi (e la sintesi è opera di chi scrive questo post), predice un confine naturale all’intervento dell’AI in ambito giuridico: esso è rappresentato dalla dialettica e, quindi, dal contraddittorio. Di seguito alcuni brevi passaggi significativi in ragione delle riflessioni a seguire sull’intera analisi.
‘L’etica e il diritto debbono risolvere conflitti che si manifestano naturalmente nella realtà sociale, che è controversa, attraverso scelte che implicano complesse analisi riconducibili solo parzialmente all’attività computazionale, esigendo spesso profonda riflessione e capacità decisionale in situazioni incerte e ambigue. La possibilità di prefigurare la ripetizione costante e seriale di atti autenticamente umani confligge con la natura della soggettività, imprevedibile ed irriducibile soltanto ad un meccanismo biologico involontario ed automatico, pur adattabile alle reazioni ambientali di una macchina cibernetica.’
‘L’elaborazione di una logica telematica per l’argomentazione forense, che consenta di costruire adeguati sistemi esperti di intelligenza artificiale per il diritto, dovrebbe imitare il ragionamento giuridico, che non è fondato su regole, ma su caratteristiche che sono al di fuori del modello analitico e sono riconducibili alla dialettica. Sin dalle sue origini classiche, la procedura dialettica si presenta come arte dell’antilogia e, nello stesso tempo, come tecnica della mediazione, proponendosi di discutere qualunque premessa del discorso per distinguere ciò che è contraddittorio e custodire ciò che è condivisibile nelle proposizioni alternative: va da sé che questa logica discontinua e dialogica, che è tipica del diritto, può essere difficilmente
formalizzata nella sequenza dell’algoritmo. Poiché la conoscenza giuridica è controversa e le conclusioni del confronto fra tesi contrapposte sono sempre revocabili in dubbio, ogni giudizio può essere sconfitto da argomenti prevalenti in senso contrario e, dunque, la soluzione dei problemi giuridici richiede processi interattivi governati da regole dialettiche.’
‘Peraltro, gli algoritmi hanno assunto il potere e impongono agli utenti l’esecuzione di calcoli, mettendo in pericolo valori essenziali della persona umana, come libertà, identità, personalità. In particolare, la programmazione informatica di sistemi esperti di intelligenza artificiale pone la questione della tutela dei diritti poiché gli odierni algoritmi non sono affatto neutri e oggettivi, ma sono discriminatori e ingiusti, come quelli utilizzati per assumere o licenziare i lavoratori, in quanto incorporano pregiudizi e ideologie: infatti, questa tipologia di algoritmi non riguarda numeri, ma opinioni umane incastonate in linguaggio matematico.’
In ottica costruttiva,
nelle diatribe etiche che imperversano, riguardo i confini di applicabilità di AI nei vari settori, ci si dimentica (involontariamente, o meno se utile alle proprie tesi ) spesso di prendere in considerazione due fattori importanti nella costruzione di scenari oggettivi. Il primo è lo ‘stato dell’arte’ (nell’accezione italiana della locuzione, non in quella inglese); il secondo è l’efficienza, sia essa espressa dalla produttività in ottica di mercato o da altre formulazioni.
Con riguardo il primo, per tutti Gartner. La società di analisi leader
sull’innovazione pone, nell’ultimo Hype Cycle, AI (Artificial General Intelligence) nella zona ‘Innovation Trigger’. Non solo ma la previsione di raggiungimento del ‘plateau of productivity’ è a dieci anni. Nello specifico si parla di intelligenza artificiale in generale, e non applicata alle professioni legali, settore che Gartner non propone neppure nell’Hype Cycle. Nella trattazione settoriale essa relega, per ora, alle componenti di ‘legal automation’, ‘work flow’ e ‘contract-lifecycle management’ quello che ritiene essere il nocciolo duro innovativo, e cioè la componente di processo (aziendale). In altre parole non vi sono evidenze tecniche ed operative tali da prospettare, allo ‘stato dell’arte’ tecnologico, capacità cognitiva decisionale autonoma sistemica in ambito dialettico: negarle a priori equivale ad ammetterle a priori, ambedue posizioni viziate da evidente pregiudizio. Questo vale per tutti quei settori (armi autonome, guida autonoma, gestione della forza lavoro, giudici robot, assistenza cognitiva alle classi comprese nel ‘fragile people’, eccetera) in cui il contraddittorio e dialettica sono elementi su cui basare scelte.
I pochi che leggono questo blog sanno che in ogni post in cui si tratta AI compiono sempre le parole ‘alba’ o ‘albori’ perché questa è la realtà. La mediatica e i cartoni animati di Casaleggio & C. sono altre cose e servono per altri fini, non a produrre conoscenza. Il problema da affrontare non è chi codifica l’intelligenza artificiale ma perché si è codificata autonomamente in una data maniera: allo ‘stato dell’arte’ ciò è fantasia nei settori che coinvolgono dialettica e contraddittorio. Gli ambiti di machine e deep learning, per rinforzo e supervisionati o meno, attualmente non presentano ipotesi di soluzioni nel contesto di cui si sta ragionando; pertanto, si pensa, sia al minimo prematuro ipotizzarne l’impossibilità, tanto quanto immaginare che si finirà assieme a Neo a combattere contro Mr.Smith. Un conto sono le speculazioni altro è la realtà.
Naturalmente e per fortuna esiste l’empirico. Esso permette di procedere attraverso piccoli umili passi con la conoscenza nel reale e, quindi, produrre effettiva saggezza. Gli esempi che sembrano maggiormente significativi, e di cui si è riusciti ad avere contezza per ora con riguardo l’argomento in questione, sono Lawgeex (soprattutto per il poderoso e titolato white paper di supporto, ne abbiamo parlato a suo tempo qui), il caso Estonia (ne abbiamo parlato recentemente qui) e la francese Predictice. Per l’Estonia, il cui core riguarda la risoluzione di cause civili inferiori a € 7.000,00 da parte di un’AI, è appena partita la sperimentazione e si è in attesa dei dati. Riguardo Lawgeex il dominio interessato, e cioè il contract-review, è troppo specializzato per generalizzare, anche se i risultati sono notevoli. Infine Predictice: le sperimentazioni nel 2017 in due corti di appello francesi sul civile diedero risultati negativi al giudizio dei magistrati; tuttavia il mercato dell’investimento pubblico e privato ha reagito bene e la società sta continuando per la propria strada.
Questo porta al secondo punto, e cioè la produttività e quindi l’efficienza. Davvero si pensa che negare aprioristicamente la fattibilità (attraverso tutte speculazioni del mondo, perché riscontri pratici non ne esistono) porterà al non-utilizzo? Supponendo che l’esperimento Estonia conduca ad una convergenza di giudizio tra umano e artificiale del 25% e, contemporaneamente, ad un 10% di miglioramento dell’economicità della spesa pubblica per i giudizi civili, da che parte si ipotizza penderà l’adozione? In Cina gli Uiguri sono la minoranza musulmana più consistente e, allo ‘stato dell’arte’, non solo sono tutti schedati in ogni loro componente fisiologica e digitale ma sono controllati in ogni fase della loro quotidianità (digitale e non, compresi i neonati) da un sistema intelligente con finalità predittivo-comportamentale. Da che parte pende la bilancia per il sino-regime? Dalla parte dell’efficienza del sistema (leggi zero conseguenze interne causa Jihād di diversa matrice, da quando il tutto è stato inizializzato nel 2014) o dalla necessità di dialogare con gli Uiguri con riguardo ogni singolo loro diritto civile, in un contesto di definizione in contraddittorio del contratto sociale? In tema di dibattito etico-legale si potrebbe continuare all’infinito, sia con occhio alle dinamiche che hanno caratterizzato il passato che al presente (CRISPR per tutti).
È questa la realtà con cui bisogna confrontarsi in via sempre maggiore, come insegna il lavoro delle eccellenze del settore. Il metodo dovrà essere di compromesso, di senseria, di feedback reiterati, di negoziazione delle forme controllo e non impostato su ipotetici pre-rifiuti tout-court di (eventuali) progressi che, se si realizzeranno (ed è tutto da vedere), comunque verranno mediati dalle inevitabili necessità dettate dall’efficienza.
Il rischio della non-distinzione tra speculazione e scenario è di confondersi con quel famoso accademico e titolato economista che, ad un workshop di circa due anni or sono sulle cryptocurrency e blockchain (e di fronte ad una consistente platea di operatori del settore legale), alzò nella mano una banconota da cinque Euro enunciando, nel contempo, l’unicità immutabile della stessa come depositaria di fiducia di valore. Ora che la tecnologia è tale per cui Facebook esce con Libra e la banche centrali svedese e iraniana usciranno a breve con la crypto-corona e il crypto-riyal egli, essendo tuttora venerato formatore, cosa ha raccontato e/o racconterà ai suoi studenti? Avrà cambiato forse idea?