FONDAZIONE PESENTI ETS

Il diritto e il rovescio dell’intelligenza artificiale

 

 

 

 

 

 

 

È stato molto partecipato e ricco di spunti di riflessione l’incontro “Il diritto e il rovescio dell’intelligenza artificiale” organizzato da Fondazione Pesenti e Fondazione Corriere della Sera e trasmesso in diretta streaming sul sito Corriere.it. L’evento, finalizzato ad approfondire opportunità e problematiche derivanti dalla diffusione dell’intelligenza artificiale è stato moderato dal giornalista Massimo Sideri e ha visto il coinvolgimento di alcuni dei maggiori esperti sul tema.

Il primo a prendere la parola è stato Alessandro Pajno, Presidente emerito del Consiglio di Stato, che ha voluto sottolineare i cambiamenti che una nuova tecnologia porta non solo nella società, ma anche nel diritto “Una nuova tecnologia cambia la società, siamo di fronte a una reingegnerizzazione della realtà. Anzi è una reontologizzazione quindi un cambiamento nella sostanza di questa realtà. Il cambiamento riguarda non soltanto la nostra realtà quotidiana ma la vita stessa delle persone, il nostro modo di relazionarci. Cambiano i nostri doveri, cambiano i nostri diritti e cambiano anche i modi e le forme che questi diritti hanno. Il diritto è ‘mimetico’ perché un lato comprende i vecchi istituti, dall’altro elabora questioni nuove. Non a caso alcuni paesi stanno valutando il tema della personalità giuridica dell’intelligenza artificiale nell’ottica di riconoscere un centro di imputazione, di responsabilità. Perché se sbaglia qualcuno deve pagare”.

Ma come gestire il tema della disciplina di queste nuove tecnologie?

Ne ha parlato Filippo Donati, Professore ordinario di Diritto Costituzionale, Università di FirenzeL’intelligenza artificiale produce effetti che fino a poco fa si pensava potessero essere frutto solo dell’intelligenza umana. Per affrontare in chiave regolatoria il tema dell’intelligenza artificiale dobbiamo abbandonare l’idea che l’uso dell’intelligenza artificiale sia frutto di un trade-off tra esigenze di efficienza ed esigenza di tutela dei diritti fondamentali e partire invece dall’idea che la tutela dei diritti attraverso i sistemi di intelligenza artificiale deve essere realizzata attraverso modi diversi. Attraverso una disciplina che garantisca la tutela dei diritti dalla fase di progettazione sino alla fase di controllo dei software. In quest’ottica l’Unione Europea ha proposto una direttiva volta a permettere a chi ha subito un danno da parte dell’intelligenza artificiale di poter più facilmente provare il nesso causale e soprattutto di potere avere trasparenza sul tipo di algoritmo utilizzato in maniera da garantire una maggiore tutela”.

 

Un tema complesso, quello della definizione di nuove regole e perimetri, su cui si è soffermata anche Mariarosaria Taddeo, Associate Professor and Senior Research Fellow, Oxford Internet Institute, University of OxfordLa tecnologia è un po’ come quella pressione che dentro un perimetro cerca di allargarlo, di sformarlo. Il tema fondamentale è non ostacolare la rottura degli argini, non ostacolare la ridefinizione del perimetro ma decidere come trasformare perimetro, decidendo la direzione che vogliamo prendere come società e come esseri umani. Il nuovo perimetro sono le società digitali, nelle quali avremo assorbito queste innovazioni e i cambiamenti da esse prodotti. Ecco, oggi definiamo i perimetri di questa società di domani. E l’intelligenza artificiale, come il digitale, in questa in questa catena pone delle sfide ai diritti, emerge la necessità di creare dei diritti nuovi, nuove modalità di esercitare il diritto e nuovi equilibri nell’armonizzare i diritti. È poi fondamentale evitare due rischi. Il primo potremmo chiamarlo ‘soluzionismo tecnologico’, ovvero pensare che l’IA sia la soluzione ad ogni problema. L’altro è pensare che si possa costruire un sistema di IA che sia etico ex ante, sia per la complessità, sia per l’opacità di questi sistemi, che sono a bassa predicibilità. È difficilissimo garantire che un sistema si comporterà sempre eticamente. Bisogna inserire un sistema di verifica dell’eticità che non funzioni solo ex-ante ma soprattutto ex-post, per correggere eventuali errori e risarcire eventuali danni”.

Alfonso Fuggetta, Professore ordinario di Informatica presso il Politecnico di Milano nel suo intervento da un lato ha voluto chiarire lo stato dell’arte di un comparto di cui si parla molto e spesso impropriamente, dall’altro ha sottolineato come sia importante definire norma che non ostacolino lo sviluppo di un settore giovane e in continuo mutamento. “Io credo che il termine intelligenza artificiale sia uno dei più brutti esempi di titoli dati a una branca scientifica. I sistemi di IA non sono né creativi né coscienti, abbiamo dei modelli di calcolo, dei modelli di rappresentazione che sono l’evoluzione di un filone che nasce tanti anni fa, ma rispetto al passato abbiamo moltissimi dati ed enorme potenza di calcolo. I veri problemi da affrontare sono a mio avviso tre. Il primo problema di antitrust e cioè di integrazione verticale degli operatori, perché l’integrazione blocca l’innovazione e lo sviluppo del mercato, un mercato che va regolato in modo corretto. Il secondo tema riguarda l’interoperabilità e la trasportabilità dei dati. Il terzo tema riguarda algoritmi, la fonte dei dati, la trasparenza. Il vero tema non è la paura dell’intelligenza artificiale, che ancora non esiste, il tema è evitare l’eccesso di regolazione. È troppo presto per dire quali sono le regole perché non sappiamo ancora come funziona, cosa ne va. Dobbiamo certamente garantire la trasparenza evitando di ingessare con regole premature un sistema dinamico e in evoluzione”.

 

Conclude Oreste Pollicino, Professore ordinario di Diritto Costituzionale presso l’Università Bocconi di Milano, che pone invece l’accento sull’importanza di normare correttamente un settore che già permea le nostre abitudini e sta cambiando il nostro rapporto con la ricerca e l’accesso alle informazioni “È vero che l’intelligenza artificiale probabilmente non è ancora intelligente, però può essere molto persuasiva. L’utente medio che si trova ad affrontare una domanda e cerca la risposta ad esempio su Chat GPT può trovare una convincente e potrebbe non cercare più. Il secondo punto riguarda l’accesso all’informazione e il problema della disinformazione, che in Unione Europea abbiamo si è cercato di affrontare. C’è poi un tema ulteriore che va affrontato, bisogna evitare che vengano lesi i diritti fondamentali”.