l'esperta

Sull’intelligenza artificiale ci sono ancora infiniti capitoli da scrivere. Negli ultimi anni sono sbucati corsi di laurea e formazione, master specifici e il dibattito è ancora in forte fermento, nonché in quotidiano sviluppoNeanche Bologna si è sottratta all’inarrestabile progresso tecnologico. Nel 2018 nasce un polo che raccoglie più di 420 ricercatori, assegnisti e docenti universitari, che oggi lavorano all'interno dell'Alma Mater Research Institute for Human-Centered Artificial Intelligence (Alma Ai). Ma la città delle Due Torri è anche diventata capitale di supercomputer grazie a Leonardo, "il gemello digitale della Terra". O ancora Ifab, con sede in via Galliera, fondazione che vuole essere “ponte tra la tecnologia, la ricerca e le loro applicazioni concrete in ambito industriale e sociale". Se a definirsi l'intelligenza artificiale ci pensa da sola, ben più complesso è comprenderne i confini etici, giuridici, nonché valutare le eventuali implicazioni. Per districare questa matassa, InCronaca ha intervistato Paola Manes, professoressa ordinaria di diritto privato e avvocato.

 

In che modo si colloca il diritto d’autore a livello giuridico nel controverso rapporto tra IA generative e creatività umana? 

«C’è un grande fermento intellettuale a riguardo e anche posizioni molto distanti. Di base andrebbe risposta un’altra domanda, ovvero se il concetto di diritto d’autore sia ancora il medesimo. Ancora oggi ci basiamo su una nozione (basata su originalità e creatività) contenuta in una legge degli anni Quaranta che, per quanto rivista nel tempo, è lontana da noi. Ancor prima di pensare a come cambiare le norme, andrebbe capito se va cambiato il paradigma di riferimento. Se una parte della giurisprudenza ritiene che la legge sul diritto d’autore vada utilizzata anche se le opere sono prodotte da intelligenze artificiali. Un’altra parla addirittura di una vera e propria frode diventata regola, che lascia gli autori senza alcuna tutela. L’arte è totalmente tagliata fuori».  

 

Ci può fare degli esempi? 

«C’è una sentenza statunitense molto recente che stabilisce che quando si genera un output creativo - in questo caso si trattava di un’immagine di un bosco attraversato da una rotaia interamente prodotta da un algoritmoquesto non può in alcun modo essere ricondotto a una persona fisica. Quindi non ci sono i criteri minimi per tutelarlo con la legge sul diritto d’autore». 

 

Ma è vero che le macchine sostituiranno gli esseri umani? 

«Anche in questo caso il dibattito è molto polarizzato e tornano utili due esempi incarnati da altrettanti libri. Il primo è stato scritto a “quattro mani” da un autore, Reid Hoffman, e ChatGpt 4. Si tratta di “Impromptu, prima creazione autoriale in cui coesistono macchina e uomo. Secondo quest’ultimo si dovrebbe parlare di “agumented intelligence” (intelligenza aumentata), perché è un meccanismo potenziativo. Certo è pur vero che nel tempo porterà a sostituire alcuni lavori a bassissima redditività, ma che dall’altra consentirà di sviluppare nuovi lavori altamente specializzati. Più pessimista la visione di Daniel Susskind, che preannuncia un mondo senza lavoro.  

 

Perché questa polarizzazione? 

«Da un lato la tecnologia non è arrestabile, per quanto tentiamo di governarla. Dall'altra però c'è un grande tentativo di far sì che questo semini e dissemini nel mondo il minor tasso di iniquità ed ingiustizia sociale. Quindi che si consenta alla tecnologia di essere sostenibile da parte di società che possono beneficiare dei suoi vantaggi e anche sopportare i costi». 

 

Per l’IA è come se si agisse sempre dopo, con delle sorte di “guard rail giuridici”. In Italia a che punto siamo?   

«Dal punto di vista dell'ordinamento italiano, come è noto, è stata istituita una commissione  destinataria del compito di redigere una regolamentazione in materia di editoria sull'intelligenza artificiale. Lì sostanzialmente si dettano linee guida, che si fermano però allo standard setting. Tutto ciò che riguarda il cantiere normativo è aperto in sede Europea. Fermare il progresso è impossibile, ma anche solo pensare di regolamentarlo in corsa. Se speriamo di irreggimentare e disciplinare con delle norme e di andare di pari passo con la tecnologia, la nostra è solo un’illusione». 

 

A Bologna si sta investendo molto sul connubio intelligenza artificiale-medicina. Qual è lo stato dell’arte normativo in materia? 

«Il quadro di riferimento oggi più significativo e recente è il cosiddettoAI Act, un regolamento che stabilisce regole armonizzate sull’intelligenza artificiale. Lo scorso giugno il Parlamento ha dato l’ok al progetto, che era stato proposto dalla Commissione già nel 2021. Questa fase, molto significativa, dà il via a dei negoziati per approvare in maniera definitiva la normativa. Si spera entro fine anno. L’idea chiave sottesa in questo regolamento è il concetto di rischio». 

 

Quali sono questi rischi? 

«Il rischio è tripartito in base alla sua gravità. Si parte da nessun rischio, poi si passa a un rischio accettabile. E infine può esserci un rischio talmente elevato che non permette di utilizzare questi meccanismi di intelligenza artificiale, se non con particolari presidi di rischio. I sistemi legati a ospedali e sanità rientrano in quest’ultimo caso, perché aiutano a prendere decisioni che riguardano la vita di tutti noi. Allora questi sistemi sono sottoposti a dei vincoli prima di poter essere utilizzati come una documentazione tecnica molto approfondita e accurata, criteri di trasparenza che accompagnino tutto il ciclo di vita dell'algoritmo».  

 

Nell'immagine Paola Manes. Foto concessa dall'intervistata