“A.I. Etica, Rischi e Governance di una rivoluzione in corso” – Think Tank Trinità dei Monti

Martedì 20 dicembre 2022, il Think Tank Trinità dei Monti, fondato ha organizzato nella storica sede dell’Hotel Palazzetto in Roma, nel cuore di Piazza di Spagna, un incontro di approfondimento sull’Intelligenza Artificiale, con ospite Germana Lo Sapio, Magistrato amministrativo con qualifica di Consigliere presso il TAR per la Campania.

Nell’introduzione il Presidente del Think Tank Trinità dei Monti, Pierluigi Testa, ha ricordato come l’intelligenza artificiale, pilastro della Quarta rivoluzione industriale, al pari dell’elettricità (Seconda rivoluzione industriale) ha determinato un cambiamento epocale nella storia dell’umanità.

Negli ultimi dieci anni la ricerca ha fatto passi da gigante, grazie, da un lato, alla enorme disponibilità dei dati, per effetto della pervasiva digitalizzazione della società attraverso la rete, i social network, l’interoperabilità tecnologica e semantica tra i sistemi informativi, la tracciabilità di tutti gli aspetti delle interazioni umane e, dall’altro, grazie allo sviluppo delle capacità di calcolo ad alte prestazioni indispensabile per elaborarli.

Ma l’IA è anche fonte di nuove sfide etiche e giuridiche legate ai meccanismi di funzionamento della democrazia.

La special guest di serata, Germana Lo Sapio, è partita dall’importanza di definire e comprendere l’intelligenza artificiale, che ha spinto le istituzioni europee ad occuparsi del tema dal 2017 ad avviare il cantiere ancora in corso del regolamento sull’intelligenza artificiale. Nell’ultima definizione disponibile – inclusa anche nella bozza di regolamento – si afferma che l’intelligenza artificiale si riferisce ai sistemi che, elaborando dati e utilizzando una notevole capacità di calcolo, raggiungono obiettivi assegnati con un certo grado di autonomia rispetto alle istruzioni iniziali. Scompare qui il riferimento alla simulazione dell’intelligenza umana.

Sono stati passati in rassegna gli elementi costitutivi dell’Intelligenza Artificiale, vale a dire:

  1. I dati che hanno reso possibile l’exploit dell’intelligenza artificiale negli ultimi anni grazie alla progressiva digitalizzazione della realtà. Si è prima partiti negli anni ‘90 con il web, poi si è affermato il social web, infine oggi abbiamo il semantic web ovvero il web 3.0, in cui i dati vengono trasmessi da macchina a macchina (incluso l’Internet of things). Questi dati sono considerati il nuovo il nuovo petrolio.
  2. La potenza di calcolo, spesso esclusa anche dagli studi giuridici.
  3. Gli algoritmi che sono formule matematiche pensate dai matematici proprio per far funzionare l’intelligenza artificiale.

La quarta rivoluzione industriale è anche una rivoluzione ambientale, ecologica, nel senso che cambia l’ambiente in cui viviamo. Infatti, la Commissione Europea nel definire l’intelligenza artificiale parla di “eco-sistema”.

Sono stati poi citati due eventi chiave con cui l’IA ha raggiunto le masse:

  1. Nel 1997 ci fu una famosissima serie di partite di scacchi, passata alla storia, tra Kasparov e “Deep Blue” di IBM, uno scontro serrato tra l’uomo e la macchina in cui all’ultima partita in cui ha prevalso la macchina, grazie alla sua enorme capacità computazionale. Secondo Antonio Ballarin, membro dell’International Neural Network Society e Visiting Professor alla University Canada West di Vancouver – intervenuto all’evento come scienziato esperto – la sconfitta di Kasparov è più dovuta ad un errore di stanchezza.
  2. Cosa diversa e ancor più globale fu la vittoria di AlphaGo al gioco del “Go perché non solo sconfisse i più grandi campioni (tra cui Lee Sedol), ma soprattutto lo fece attraverso una serie di miglioramenti che essa stessa conseguì nel corso del gioco, evolvendo le sue capacità.

È stato approfondito poi il rapporto tra Etica e regolamentazione dell’IA, due tematiche connesse al punto che si cerca di risolvere il problema relativo alla prima attraverso la normativa.

a) Talvolta, l’intelligenza artificiale arriva dei risultati consistenti, ma non si riesce a spiegare il come sia riuscita a produrli e questo pone la macchina sullo stesso piano di un oracolo a cui credere senza alcuna capacità critica. La mancanza di una spiegazione pone un problema etico. L’esigenza di spiegabilità porta lo sviluppo dell’intelligenza artificiale ad un livello superiore.

b) Un secondo aspetto importante è la perdita del controllo da cui nasce l’esigenza di far intervenire un controllo umano, previsto nell’ultima bozza di regolamento (“AI Act”) in cui si parla di principio di sorveglianza umana: chi sorveglia la macchina deve avere non solo la consapevolezza ma anche la competenza necessaria e la formazione.

c) Un altro aspetto è quello dell’autorità, ovvero si deve avere la possibilità di esercitare la delega dell’autorità e quindi attraverso questa una persona deve essere in grado di spegnere la macchina, fare in modo che ci siano procedure che ricordino all’operatore che esiste anche il c.d. “Automation bias” (secondo cui l’uomo tende ad affidarsi al risultato del calcolo della macchina).

d) Un altro bias importante è quello discriminatorio, che nasce nel momento in cui gli operatori (gli esseri umani) alimentano le macchine con dati che all’origine sono o risultano fortemente discriminatori. Rappresentativo è il caso della condanna di Eric Loomis da parte della Corte Suprema del Wisconsin che si è avvalsa del sistema Compas che calcola la probabilità di recidiva di un reato partendo dai dati anagrafici e dal momento in cui viene effettuato un reato da parte di una persona.

Si è scoperto poi che il bias discriminatorio di Compas aumenta del 50% la probabilità di recidiva quando si tratta di una persona di colore.

d) Infine, esiste il problema di “stare al passo” dei regolatori (il c.d. dilemma di Collindrige) con la velocità di sviluppo e diffusione delle applicazioni che utilizzano sistemi di Intelligenza Artificiale.

È stata, infine, tratta la diversa regolamentazione in UE e nel Regno Unito

a) In Europa si è arrivati ad una proposta di una bozza di regolamento sull’intelligenza artificiale che ha trovato anche un orientamento favorevole anche da parte del Consiglio dell’Unione Europea.

Il documento è, ora, in fase di validazione da parte degli Stati membri.

L’approccio di questo regolamento è che non si riferisce ad un singolo settore, ma a tutti i settori che vengono toccati dall’intelligenza artificiale ed ha una valenza extraterritoriale perché si applica a tutti i sistemi esterni all’Unione Europea che vogliono entrare nel mercato europeo.

L’approccio di questo regolamento è risk-based, ovvero nel riconoscere l’intelligenza artificiale come un volano per l’economia, non possiamo bloccarne lo sviluppo, ma perseguire l’ecosistema di eccellenza e farlo in modo tale da garantire che i rischi non si traducano in danni effettivi.

In Europa in ogni caso è vietato, ad esempio, il “social scoring”, utilizzato altrove (Cina).

Tuttavia, secondo Antonio Ballarin essendol’Intelligenza Artificiale “materia viva” – e come tale contenendo sempre un errore implicito nel suo calcolo – potrebbe rappresentare un limite all’AI Act, che non prevede la sanzionabilità all’errore nell’impostazione di un qualsiasi sistema da parte di un data scientist.

b) Il Regno Unito, che risulta molto avanti sull’innovazione, ha un approccio regolatorio più light, perché delega alle autorità di settore l’individuazione delle specifiche. Oltremanica il regolamento europeo è considerato talmente invasivo che rischia di bloccare lo sviluppo dell’economia.

Nel Regno Unito vengono identificati dei principi chiave che devono orientare la regolamentazione e tra questi c’è il principio della spiegabilità.

La governance etico-giuridica della rivoluzione digitale è una strada ancora in salita, tutta da costruire. Ma è un capitolo in cui è necessario che tutti prendano parte, ognuno con il suo ruolo.

Impostazioni privacy