home / Archivio / Fascicolo / Osservazioni sulla costruzione di un regime europeo di responsabilità civile per ..

indietro stampa articolo indice fascicolo pdf articolo pdf fascicolo


Osservazioni sulla costruzione di un regime europeo di responsabilità civile per l´Intelligenza Artificiale

Davide Maria Locatello, Dottorando – Università degli Studi di Bologna

Il saggio analizza criticamente il problema dello sviluppo, nell’ambito dell’Unione europea, di un quadro giuridico in materia di danni cagionati da sistemi implementati con tecniche di Intelligenza artificiale. Dopo aver dato sinteticamente conto delle principali iniziative assunte al riguardo dalle Istituzioni dell’Unione europea, nonché degli specifici problemi che lo sviluppo dell’Intelligenza artificiale solleva al cospetto delle categorie della responsabilità civile, l’articolo si sofferma sui principali “modelli” di regolazione dei danni provocati dai sistemi d’Intelligenza artificiale proposti sia dalle Istituzioni stesse, sia dalla dottrina giuridica. Con riferimento alla responsabilità basata sulla colpa, si mettono in luce i limiti e le criticità di questo criterio di imputazione di fronte, segnatamente, alla capacità di apprendimento dei sistemi intelligenti. Anche con riguardo alla possibile scelta per un regime di responsabilità oggettiva vengono formulate osservazioni critiche. In particolare, tenuto conto della complessità dei sistemi d’Intelligenza artificiale, che coinvolgono numerosi soggetti in grado di influenzare il rischio connesso al loro funzionamento, si analizzano sia la proposta di individuare il responsabile sulla base del concetto elastico di “controllo”, sia l’idea di determinarlo ex ante, per ciascun tipo di sistema intelligente. L’articolo conclude, dopo una breve disamina del contributo che il modello italiano (integrato con le norme europee sulla responsabilità civile del produttore) è in grado di offrire al dibattito, evidenziando la necessità di un intervento organico del legislatore europeo. Tale intervento, però, accanto alla scelta per i criteri di imputazione, dovrebbe riguardare anche gli altri elementi costitutivi della fattispecie di responsabilità.

Parole chiave: Responsabilità civile, Intelligenza artificiale, Sicurezza dei prodotti, Responsabilità del produttore, Armonizzazione del diritto europeo.

 

Remarks on the development of a European civil liability legal framework for Artificial Intelligence

The essay analyses the challenging development of a legal framework on liability for damages caused by artificial Intelligence (“AI”) systems in the European Union system. After taking into account European Union main legal drafts and pieces of law on AI, the article focuses on the different approaches to civil liability for damages caused by AI products lied down and evaluated by European Institutions and legal doctrine. As to fault-based liability, main critical aspects are connected to AI systems learning skills. Some critical remarks are also made in relation to the possibility of adopting of a strict liability rule. In particular, given the complexity of AI systems, implying several parties able to affect functioning risk, the paper examines both the proposal to identify the liable party on the basis of the elastic concept of “control” and the idea of determining ex ante who must pay for damages depending on the type of AI systems involved. After a brief analysis on how Italian civil liability rules (including European provisions on product liability) can contribute to the debate, the need for an organic intervention by the European legislator is outlined. However, such an intervention should encompass not only criteria for liability attribution, but also all other fundamental requirements needed to grant compensation.

Keywords: Civil Liability, Artificial Intelligence, Product Safety, Product Liability, EU Law Harmonization.

Sommario:

1. La diffusione di sistemi intelligenti e le nuove sfide per la responsabilità civile in una prospettiva (necessariamente) eurounitaria - 2. Quale regime di responsabilità per il danno da sistema intelligente? Il criterio della colpa e le sue criticità - 3. Segue: una regola di responsabilità oggettiva tra soluzioni trasversali e approccio settoriale - 4. De iure condito: il danno da sistema intelligente tra norme codicistiche e (limiti della) Direttiva 85/374/CEE - 5. Osservazioni conclusive - NOTE


1. La diffusione di sistemi intelligenti e le nuove sfide per la responsabilità civile in una prospettiva (necessariamente) eurounitaria

Gli enormi progressi che da oramai diversi lustri caratterizzano il settore ICT e che non paiono destinati a rallentare hanno portato al centro dell’attenzione del giurista il fenomeno dell’Intelligenza Artificiale («IA» o AI, secondo la locuzione inglese). Anche a voler trascurare di considerare gli scenari maggiormente futuristici che sono stati prospettati, dalle tinte alle volte apocalittiche e influenzati dalle numerose opere letterarie e cinematografiche che alimentano l’immaginario collettivo (soprattutto) nei riguardi della robotica, nonché i moniti di alcuni personaggi di spicco del mondo scientifico e tecnologico – a non scoperchiare un potenziale vaso di pandora [1] – certo è che il fenomeno in parola impone alla scienza giuridica di affrontarne i molteplici aspetti. Ed in effetti i problemi che si pongono con riferimento allo sviluppo delle tecniche computazionali riconducibili al paradigma – non univocamente definito o definibile [2] – dell’IA, hanno innescato un dibattito, articolatosi a più livelli e in tutti gli ordinamenti dei Paesi tecnologicamente avanzati, che vede protagonista non (più) solo la dottrina, bensì pure le Istituzioni pubbliche, le quali sono chiamate ad assumere oggi le scelte che condizioneranno, se non addirittura plasmeranno, la «società algoritmica» [3] del domani. Non poteva certamente rimanere estraneo il settore della responsabilità civile. L’istituto aquiliano è infatti naturalmente capace di orientare le decisioni degli operatori economici che sviluppano o che si servono dell’IA – rappresentando il regime di responsabilità in vigore un potenziale fattore di crescita ovvero di rallentamento della ricerca tecnologica e della diffusione dei risultati di questa – così come di influenzare l’at­teggiamento del grande pubblico, atteso che, oltre a beneficiare delle potenzialità che la stessa IA dischiude, i consociati potrebbero risultare diffidenti verso rischi di danno della cui risarcibilità non siano certi. Rischi che, tralasciando le non poco preoccupanti applicazioni a fini militari e di polizia dell’IA [4], non sono di là a venire, ma hanno già cominciato ad inverarsi. Basti, tra i diversi episodi, ricordare: l’incidente mortale provocato da un’automobile a guida autonoma [continua ..]

» Per l'intero contenuto effettuare il login inizio


2. Quale regime di responsabilità per il danno da sistema intelligente? Il criterio della colpa e le sue criticità

Tanto chiarito, al fine di comprendere le ragioni delle preoccupazioni espresse in dottrina e presso le sedi istituzionali, non solo comunitarie [27], rispetto ai nuovi pericoli legati alla diffusione dell’IA, occorre brevemente soffermarsi sui principali aspetti di ordine tecnico che rendono tale fenomeno, in varia misura, inedito e, comunque, bisognoso di una rinnovata riflessione da parte dello studioso (anche) della responsabilità civile. Stando alla già considerevole letteratura formatasi in merito, è opportuno indugiare essenzialmente sul carattere complesso e «aperto» (o, se si preferisce, interconnesso) dei sistemi di Intelligenza Artificiale, nonché sulla loro opacità e imprevedibilità, che dipendono da un’intrinseca autonomia, a propria volta riconducibile a una più o meno marcata capacità di «apprendimento» (ciò che induce a considerarli, appunto, intelligenti). Abilità di apprendere che discende dal ricorso, nella programmazione dei software, a sofisticate tecniche algoritmiche, quali, tra le altre, le reti neurali, gli alberi di decisione, l’apprendimento Bayesiano, l’apprendi­mento rinforzato [28]. Ed è appena il caso di rimarcare che quando l’IA non è semplicemente fornita alla stregua di un servizio – come potrebbe essere un applicativo che sfrutta un algoritmo intelligente (ad esempio un chatbot per la gestione delle richieste d’indennizzo dei clienti di un’impresa assicurativa) o un servizio di predictive analytics per il settore degli investimenti finanziari [29] – ma «guida» un bene, un robot, essa è in grado di conferire a quest’ultimo la capacità di modificare in via autonoma il mondo fisico secondo il paradigma icasticamente sintetizzato nella triade «sente-pensa-agisce» (sense-think-act) [30]. Entrando nello specifico, pur se nella misura consentita dalle dimensioni del presente lavoro, la complessità si riferisce alla circostanza che gli output del sistema dipendono dall’acquisizione di input a partire da un’eterogenea pluralità di fonti – si pensi alla presenza di molteplici sensori in un sistema di domotica intelligente – non da ultimo dalla rete internet, nonché dall’interazione di ciascuna componente con le altre, oltre che con differenti [continua ..]

» Per l'intero contenuto effettuare il login inizio


3. Segue: una regola di responsabilità oggettiva tra soluzioni trasversali e approccio settoriale

Le segnalate criticità che interessano la regola della colpa hanno condotto altra parte della dottrina a suggerire un differente itinerario: i danni provocati dall’IA dovrebbero assumere rilievo attraverso l’adozione di un criterio oggettivo di responsabilità, con particolare riferimento ai soggetti implicati nella catena di creazione del sistema intelligente [57]. Tale regime mira a realizzare una compensazione, tendenzialmente piena, del danno patito dalla vittima, contribuendo in tal modo a creare un clima di fiducia nel pubblico degli utenti e dei consumatori verso i prodotti e i servizi basati sull’Intelligenza Artificiale, alimentandone, per ulteriore conseguenza, la domanda. Una responsabilità svincolata dalla prova del mancato raggiungimento da parte del convenuto di una soglia di diligenza esonerante, inoltre, sembrerebbe idonea a spingere le imprese ad investire nella ricerca e nello sviluppo di soluzioni tecniche che minimizzino i rischi per utenti e terzi [58]. Il punto è però quantomai controverso: v’è infatti chi imputa all’eventuale adozione di criteri oggettivi di imputazione di responsabilità per il settore dell’IA pesanti «chilling effects» sull’innovazione [59]. Quali che siano gli effetti sul piano economico della regola, va comunque tenuto presente che l’idea per cui gli incentivi alla ricerca e allo sviluppo dovrebbero essere veicolati attraverso l’istituto aquiliano – nello specifico, mediante l’assorbimento delle esternalità negative prodotte dall’impresa da parte delle vittime – è passibile di critica [60]. In senso contrario all’adozione di una regola di responsabilità oggettiva, in termini generali e con particolare riferimento al settore dell’IA, parrebbero deporre ulteriori argomenti. L’attuale incertezza in merito alla reale rischiosità dei sistemi intelligenti – intesa come prodotto tra la quantità di danni che i medesimi sono in grado di provocare e la probabilità della loro verificazione – rende debole, si fa notare, il mercato assicurativo in questo settore, costringendo gli operatori che comunque intendano offrire una copertura assicurativa a prevedere premi elevatissimi, cui le imprese medio-piccole – e non sono poche le start-up (innovative) che contribuiscono al progresso [continua ..]

» Per l'intero contenuto effettuare il login inizio


4. De iure condito: il danno da sistema intelligente tra norme codicistiche e (limiti della) Direttiva 85/374/CEE

Quale essa sia, la scelta che compirà il legislatore europeo – che di ciò è pienamente cosciente – non potrà che fare i conti, da un lato, con l’assetto delle regole vigenti all’interno dei differenti Paesi membri e, dall’altro, con il diritto comune dei prodotti. Già si sono illustrate le ragioni, di politica (anche del diritto), che sconsigliano un approccio frammentato e frammentario nella regolazione del fenomeno dell’Intelligenza Artificiale, anche sotto il profilo della responsabilità civile; approccio di cui il settore della guida automatizzata e connessa rappresenta – già ad oggi – un esempio assai limpido [84]. Per meglio comprendere le medesime, tuttavia, può essere utile mostrare, anche se dal limitato punto di vista dell’ordinamento italiano, come potrebbe risultare disciplinata l’allocazione dei danni provocati da sistemi di intelligenza artificiale in applicazione dei criteri di imputazione nazionali, considerati, tra l’altro, nella loro «interazione» con la disciplina della product liability di fonte eurounitaria. Proprio da quest’ultima appare consigliabile muovere per metterne in luce, con la dottrina europea che si è occupata del tema, i plurimi difetti – in parte già accennati – che la rendono non del tutto adeguata a fronteggiare i nuovi scenari di rischio introdotti dalla diffusione di sistemi intelligenti. Nello specifico, si è sottolineata la necessità di superare la distinzione tra «prodotto» e «servizio» onde far rientrare anche i servizi nel campo di applicazione della disciplina in esame, posto che non di rado essi vengono forniti in maniera separata e distinta da un bene mobile dotato di corporeità (si pensi, banalmente, a un’applicazione per lo smartphone implementata con l’IA) [85]. Per una ragione non dissimile, premesso che lo stesso rappresenta l’elemento di maggior valore del bene complessivamente considerato, è stata messa in evidenza l’opportunità di chiarire la qualificazione giuridica dell’embedded software. Ciò benché, preme evidenziarlo, con riferimento all’ipotesi in cui l’incorporazione del software nel prodotto avvenga in seno alla catena produttiva, alcuni autori propongano di considerarlo alla stregua di una [continua ..]

» Per l'intero contenuto effettuare il login inizio


5. Osservazioni conclusive

Il restyling della Direttiva sulla product liability, finalizzato ad adeguarla al rinnovato contesto tecnologico, che parrebbe essere nei piani della Commissione [110], è destinato a coordinarsi con le già ricordate spinte alla creazione di un quadro normativo generale dedicato alla responsabilità per danni cagionati da sistemi intelligenti [111]. Sul punto, pare lecito osservare che quand’anche estesa sino a ricomprendere veri e propri «servizi», e non già soltanto prodotti, la Direttiva del 1985 rimane – in ogni caso – strumento di governo della sola responsabilità dell’impresa. Invero, come l’esperienza italiana – o forse meglio sarebbe dire gli scenari immaginabili facendo riferimento alle norme domestiche – permette di lumeggiare, l’adozione di regole sulla responsabilità dell’impresa che produce ovvero si avvale, onde fornire i propri servizi, di sistemi intelligenti lascia affidata alla variabile geometria dei criteri di imputazione presenti nei diversi ordinamenti nazionali le questioni concernenti la responsabilità di soggetti non professionali, con il pericolo, gravido di conseguenze poco desiderabili, di alleggerire la posizione della prima a scapito di quella dei secondi. Per tale ragione, coltivando l’idea che la regola di responsabilità debba essere variamente plasmata alla luce dell’esigenza (oltre che di tutelare le vittime, anche) di proteggere le attività socialmente desiderabili o di sfavorire quelle che lo sono meno, sia che si preferisca percorrere la strada di interventi calibrati su specifici settori, sia che si proceda a foggiare soluzioni orizzontali, valevoli per tutti i sistemi caratterizzati dal ricorso alle tecniche di IA, appare consigliabile che siano le Istituzioni comunitarie ad affrontare il problema del danno da sistema intelligente in modo compiuto. Procedere a «dosare», ad un unico ed unitario livello di regolazione, le responsabilità dei diversi soggetti che risultano implicati, a vario titolo, nel funzionamento del sistema intelligente, coordinando specific e collective deterrence, reca con sé l’indubbio vantaggio di offrire un quadro maggiormente certo a tutti gli operatori, facilitando tra l’altro la vittima nella valutazione in merito all’individuazione del (probabile responsabile e dunque) soggetto passivo [continua ..]

» Per l'intero contenuto effettuare il login inizio


NOTE

» Per l'intero contenuto effettuare il login inizio