TALK TO THE FUTURE

INTERVENTO DEL COORDINATORE OCF AVV. MARIO SCIALLA

Milano, 10 luglio 2023.

Voglio rivolgere un sentito ringraziamento ed un elogio al Presidente ed all’Ordine degli Avvocati di Milano perché pensare prima e realizzare poi un evento del genere, denota coraggio ed intelligenza perché in questo modo si tenta di accedere nella stanza dei bottoni e non rimanere, invece, spiazzati e ridimensionati dal cambiamento. Infatti assistiamo in questi ultimi anni ad un progresso scientifico senza precedenti per la complessità e la velocità dell’innovazione. Si parla di una “nuova ondata tecnologica” che investe in particolare i più recenti sviluppi delle tecnologie della informazione e della comunicazione, i big data, la robotica, l’intelligenza artificiale, il potenziamento cognitivo.

Si apre anche un nuovo capitolo dell’etica delle scienze e nuove tecnologie che ci fanno intravedere nuove opportunità dischiuse dal progresso ma anche i rischi per l’uomo oggi e per l’umanità futura.

Questa settimana, però, non è dedicata solo all’intelligenza artificiale. In qualche modo vi entrerà tutto quello che è innovazione e quindi soprattutto quello che ci proviene dai territori, dagli Ordini, che discuteremo tutti insieme nella sessione ulteriore del 15 e 16 dicembre prossimi del Congresso Nazionale Forense, sviluppando argomenti quali le modalità e le forme di esercizio della professione, con uno sguardo alle incompatibilità ed una riflessione sul codice deontologico per adeguarlo, magari, alle nuove forme di comunicazione e consentire in futuro anche un corretto utilizzo del marketing legale.

Ma sicuramente il tema più affascinante è quello dell’intelligenza artificiale.

Nonostante non sia Matusalemme e mi ritenga una persona sufficientemente aperta al progresso, devo confidare il mio istintivo timore per le nuove tecnologie a cui però, già qualche anno fa, ho posto rimedio non approfondendo la sola parte tecnica ma partendo dallo studio di ciò che comprendo meglio e cioè la filosofia.

Ed a quel punto mi si è aperto un mondo ma è stato tutto più facile: ho letto dell’ampia discussione sull’impiego dell’Intelligenza Artificiale nel mondo della giustizia e di come possa essere utile, ad esempio, per esaminare le clausole contrattuali particolarmente complesse, selezionare all’interno di vaste banche dati i precedenti più adatti alle istanze di parte o le argomentazioni più aderenti al caso di specie; elaborare una previsione della sentenza o trovare le soluzioni più convincenti rispetto alle controversie.

Un ulteriore ambito di utilizzo della IA, già applicato in giurisdizioni soprattutto statunitensi, si riferisce alla valutazione della pericolosità sociale degli imputati o dei condannati, anche al fine di definire la custodia o la scarcerazione. Si tratta di applicare la IA per predire la probabilità del rischio di commettere crimini violenti, mediante algoritmi predittivi e quindi intervenire in un campo particolarmente delicato, ove l’applicazione dell’IA non garantisce l’oggettività e l’imparzialità: alcuni studi hanno evidenziato come tali operazioni possano essere esposte a pregiudizi che talvolta caratterizzano le decisioni umane, inseriti all’interno del ragionamento algoritmico automatizzato dei programmatori per il funzionamento della macchina o nei processo di autoapprendimento (ad esempio il pregiudizio etnico – razziale che conduceva la macchina a considerare più pericolosi gli indagati appartenenti a determinate comunità).

Inoltre in ogni settore di applicazione dell’IA emerge un’istanza etica di non sostituire integralmente la decisione umana con quella artificiale. Molti, infatti, sono i dubbi sollevati contro chi pretende la sostituzione completa dell’intelligenza artificiale a quella umana, talvolta troppo influenzata dalle emozioni, dalle preferenze e dagli interessi soggettivi.

Un giudice, ad esempio, potrebbe essere troppo stanco o nervoso per analizzare con piena imparzialità i dati di un caso e le argomentazioni delle parti. La sua scelta sarebbe in realtà determinata da un c.d. “rumore di fondo”, che sembra razionale e logico ma in verità nasconde elementi ideologici e soggettivi, a volte pretestuosi.

Ebbene vi confesso che da tempo leggo e sopporto assai diversamente quelli che mi sembrano – e magari non sono –  errori del magistrato perché penso a quelli che potrebbero essere un domani della macchina, ben più difficili da scardinare. A questo proposito mi preoccupa assai l’eventuale impugnazione di una sentenza che è ricorsa alla IA. Con che mezzi la contrasteremo? Avremo le stesse possibilità ed opportunità?

L’intelligenza umana, quindi, deve necessariamente essere assistita e non sostituita da quella artificiale, sia per ragioni di natura tecnico – scientifica, sia per ragioni antropologiche. Tra l’altro mi viene sempre da pensare a chi pagherà i danni a seguito di una sentenza di condanna ove emergano poi errori nell’utilizzo dei dati elaborati dall’IA.

In ogni caso dobbiamo farci trovare preparati come uomini e come professionisti perchè oggi è già domani e prima realizzeremo ciò che ci serve, prima saremo in grado di elaborare e poi metabolizzare gli inevitabili cambiamenti che toccheranno noi stessi, i nostri studi, la nostra formazione ed attività.

Le Istituzioni Forensi, gli Ordini, lo stesso Organismo Congressuale Forense dovranno comprendere le innovazioni e calibrarle per i propri iscritti e componenti.
Al Presidente La Lumia chiedo, cortesemente, di operare una sintesi di quello che emergerà da questa settimana di serrato confronto e di condensarla in un punto da inserire all’ordine del giorno della nostra prossima Assemblea OCF del 20 luglio, in modo che possiamo continuare a parlarne.

Per quello che mi riguarda spero che alla fine di queste giornate abbia meno timore del futuro o comunque che mi preoccupi solo delle cose sulle quali bisogna effettivamente tenere alta l’attenzione perché il clima di generale sospetto che attanaglia l’Avvocatura non ci aiuta.

A dimostrazione di ciò vi dico solo che quando a seguito della Convocazione degli Stati Generali dell’Avvocatura, lo scorso 14 maggio, siamo stati ricevuti dal Ministro Nordio la sera stessa, per convincerlo, fortunatamente con successo, a rivedere il decreto sulla sinteticità degli atti, gli abbiamo candidamente confidato che un certo numero di righe, di caratteri, di pagine e soprattutto di parole chiave ci faceva temere il peggio e cioè la lettura dell’atto da parte della macchina, passaggio questo al quale, in realtà, non siamo ancora giunti.

A tutti, infine, chiedo, sin da subito, qualunque ruolo rivestano e qualunque interesse perseguano, di assicurare una adeguata protezione sociale, sulla base della giustizia e della solidarietà, con particolare attenzione nei confronti delle persone in condizione di maggiore vulnerabilità.

In questo senso andrebbero sollecitate anche tecnologie di inclusione ed integrazione di persone con disabilità.

Se rivoluzione deve essere che sia democratica ed a beneficio di tutti!

Il Coordinatore

Avv. Mario Scialla