Jus CivileISSN 2421-2563
G. Giappichelli Editore

Intelligenza artificiale e responsabilità civile. Alcune osservazioni sulle attuali proposte europee (di Caterina Del Federico Professoressa a contratto – Università Alma Mater Studiorum di Bologna)


Il presente contributo si pone l’obiettivo di analizzare il tema della responsabilità civile dei sistemi dotati di intelligenza artificiale. In particolare, dopo aver individuato le fonti in materia di intelligenza artificiale, verrà svolta una disamina delle proposte europee di regolamentazione e ci si soffermerà sull’analisi della regolamentazione della responsabilità civile dell’IA con particolare riguardo al profilo dell’onere probatorio di spettanza in ambito processuale in caso di danni provocati dai sistemi dotati di IA.

Artificial intelligence and civil liability. Some remarks on current European proposals

The purpose of this paper is to analyze the issue of civil liability of systems with artificial intelligence. In particular, after identifying the sources in the field of artificial intelligence, an examination of European regulatory proposals will be carried out, and an analysis of the regulation of AI civil liability will be focused on, with particular regard to the profile of the burden of proof in the context of litigation in the event of damage caused by AI-powered systems.

SOMMARIO:

1. Premesse introduttive - 2. L’analisi delle fonti in materia di intelligenza artificiale: tra incertezze e complessità - 3. La regolamentazione della responsabilità civile dell’IA - 3.1. Le regole sull’onere probatorio di spettanza - 4. Alcune considerazioni critiche sulle attuali proposte - 5. Conclusioni - NOTE


1. Premesse introduttive

Il progresso tecnologico che ha caratterizzato gli ultimi decenni ha condotto all’elaborazione di sistemi sempre più sofisticati, tanto da essere i medesimi considerati veri e propri protagonisti dell’azione, in grado di sviluppare meccanismi di autoapprendimento e di prendere decisioni autonome, aggiudicandosi l’attributo di “intelligenti” [1]. Il concetto di intelligenza artificiale viene oggi utilizzato in ambiti molto diversi fra loro; da qui la sentita esigenza dei legislatori extraeuropei, europei e nazionali di elaborare regole specifiche dedicate al settore dell’intelligenza artificiale. Delimitando l’ambito di indagine al campo giuridico, tra i profili di maggiore riflessione ed interesse – con riferimento alle applicazioni di intelligenza artificiale – si segnalano: la sicurezza informatica, la scelta del sistema di responsabilità civile applicabile in caso di danni derivanti dall’utilizzo di applicazioni intelligenti [2], la protezione dei dati personali, la soggettività giuridica delle applicazioni di intelligenza artificiale [3], l’utilizzo di tali sistemi in ambito contrattuale [4], bancario, finanziario [5], sanitario [6] e giudiziario [7]. In tale sede ci si propone di approfondire alcuni aspetti legati al tema della responsabilità civile. Il profilo della risarcibilità dei danni derivanti dall’utilizzo dei sistemi dotati di intelligenza artificiale, difatti, rappresenta uno dei temi più controversi legati all’utilizzo di tali nuovi strumenti. L’esponenziale sviluppo delle tecnologie automatizzate solleva nuove questioni [8] di responsabilità civile e nuovi scenari, molto diversi rispetto a quelli tradizionalmente affrontati, specialmente in considerazione delle caratteristiche dei sistemi intelligenti [9]. Ciò accade – in particolare – quando i danni sono cagionati dai robot che compiono determinate attività in luogo degli esseri umani e da intelligenze artificiali dotate della capacità di autoapprendimento e le cui scelte siano assunte in base all’elaborazione di un algoritmo e conseguano ad un processo di adattamento c.d. self learning [10]. In tal caso il sistema intelligente si modifica in base ai dati acquisiti nel tempo, adottando così scelte che potrebbero non essere quelle previste durante [continua ..]


2. L’analisi delle fonti in materia di intelligenza artificiale: tra incertezze e complessità

In un’indagine realizzata nel 2020 [14] sulla diffusione delle tecnologie “intelligenti” tra le imprese europee, la mancanza di regolamentazione in materia di responsabilità è indicata quale uno dei tre ostacoli principali allo sviluppo dell’IA. Difatti, il disincentivo all’utilizzo di un determinato strumento è nella maggior parte dei casi una diretta conseguenza della mancanza di fiducia in capo ai consumatori – o in senso lato agli utilizzatori – generata da regole incerte, talvolta inesistenti. Ed è proprio tale incertezza che conduce inesorabilmente al rallentamento dello sviluppo tecnologico nel mercato europeo. Perciò, il legislatore europeo ha tentato con varie proposte di porre rimedio alla mancanza di una regolamentazione in materia di responsabilità delle applicazioni di IA, da ultimo adottando la proposta per una direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intel­ligenza artificiale e la proposta di direttiva sulla responsabilità per prodotti difettosi [15]. La scelta della Direttiva è stata ritenuta necessaria sia al fine ridurre le incertezze giuridiche per i soggetti coinvolti e interessati, quali le persone potenzialmente tenute a rispondere di un danno, gli assicuratori, i danneggiati; sia nel tentativo di prevenire la frammentazione normativa, cui avrebbero condotto specifici adeguamenti delle diverse discipline nazionali in materia di responsabilità civile. In particolare, in merito alla revisione della Direttiva in materia di prodotti difettosi, il Parlamento aveva inizialmente proposto di valutare una sua trasformazione in regolamento, ma la Commissione ha poi optato per la direttiva, stabilendo – all’art. 3 della proposta [16] – la massima armonizzazione. Tali proposte si inseriscono in un complesso pacchetto normativo che mira a regolare l’IA in modo unitario e sotto ogni punto di vista. Il pacchetto è costituito dall’ormai nota proposta di regolamento sull’intelligenza artificiale [17] (conosciuta come AI Act) – volta a stabilire requisiti per ridurre i rischi per la sicurezza e i diritti fondamentali – dalla comunicazione della Commissione europea sulla promozione di un approccio europeo all’intel­li­genza artificiale; dall’aggiornamento del piano [continua ..]


3. La regolamentazione della responsabilità civile dell’IA

Come anticipato, allo stato attuale non vi è una normativa ad hoc in materia di responsabilità civile delle applicazioni intelligenti; perciò, tale tema rappresenta uno tra i più rilevanti dibattiti giuridici ancora aperti, lasciando irrisolti numerosi profili problematici. Tra le questioni da porsi vi è sicuramente la seguente: se l’IA risponda dei danni cagionati e se si tratti – dunque – di un soggetto giuridico al quale rivolgersi per chiedere un risarcimento. Anche su questo tema si riscontrano opinioni divergenti. C’è, difatti, chi ritiene che le applicazioni di A.I. siano entità dotate di caratteristiche riconducibili a quelle umane e – di conseguenza – alle quali risulta possibile attribuire una soggettività [50]. Un tale approccio conduce ad interrogarsi sul significato di “intelligenza” nonché sulla sua attribuibilità ad un software. L’opzione di riconoscere la soggettività alle applicazioni di IA è stata sin da subito vagliata, tanto che la medesima era menzionata anche nella Risoluzione del Parlamento europeo del 16 febbraio 2017, ove si invitava la Commissione europea a valutare “l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con i terzi”. La corrente di pensiero maggioritaria – e alla quale si intende aderire – ritiene che attribuire soggettività giuridica a un’applicazione di IA o a un robot, rappresenti una finta soluzione. D’altro canto, pur se fosse riconosciuta all’applicazione intelligente una soggettività giuridica, nel caso in cui l’applicazione fosse ritenuta responsabile, occorrerebbe comunque risolvere il problema del risarcimento del danno cagionato, questione senza dubbio centrale. Il programma di intelligenza artificiale, difatti, non avrebbe, almeno allo stato, un patrimonio di cui poter disporre e con il quale poter risarcire il danno. La questione risarcimento, dunque, rimarrebbe priva di qualsivoglia soluzione. Per ovviare ad una tale lacuna potrebbe [continua ..]


3.1. Le regole sull’onere probatorio di spettanza

Nell’affrontare il tema dell’intelligenza artificiale e della connessa responsabilità civile, particolare rilievo assume l’indagine relativa al riparto dell’onere probatorio di spettanza tra produttore e fruitore finale in caso di risarcimento dei danni derivanti dall’utilizzo di un dispositivo dotato di intelligenza artificiale; ciò anche alla luce dell’evoluzione dottrinale sul punto e delle proposte formulate in materia. Partendo da un’evoluzione storica a livello europeo della normativa applicabile, viene subito in rilievo la Dir. 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi. Tale direttiva, sebbene concernete in senso ampio e generale la responsabilità da prodotto difettoso, stabilisce al suo art. 4 che “il danneggiato deve provare il danno, il difetto e la connessione causale tra difetto e danno”, mentre, in base a quanto disposto dal successivo art. 7 al produttore compete fornire la prova liberatoria dimostrando: “a) che non ha messo il prodotto in circolazione; b) che, tenuto conto delle circostanze, è lecito ritenere che il difetto che ha causato il danno non esistesse quando l’aveva messo in circolazione o sia sorto successivamente; c) che non ha fabbricato il prodotto per la vendita o qualsiasi altra forma di distribuzione a scopo economico, né l’ha fabbricato o distribuito nel quadro della sua attività professionale; d) che il difetto è dovuto alla conformità del prodotto a regole imperative emanate dai poteri pubblici; e) che lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo in circolazione il prodotto non permetteva di scoprire l’esistenza del difetto; f) nel caso del produttore di una parte componente, che il difetto è dovuto alla concezione del prodotto in cui è stata incorporata la parte o alle istruzione date dal produttore del prodotto”. Ebbene, la richiamata direttiva ha l’evidente limite di imporre al consumatore finale, attinto da un danno da utilizzo di prodotto dotato di intelligenza artificiale, l’onere di provare il difetto del prodotto, il danno subito e il nesso di causalità. Ciò fa sì che detto riparto, se riferito a prodotti di particolare [continua ..]


4. Alcune considerazioni critiche sulle attuali proposte

Ad oggi – come evidenziato sopra – le istituzioni europee hanno avanzato numerose proposte, tra le quali le ultime due assumono rilevanza centrale in materia di responsabilità civile. Si tratta delle menzionate proposte di Dir. dello scorso 28 settembre, in attesa di approvazione dal Parlamento europeo e dal Consiglio. La prima ha ad oggetto una revisione della vigente direttiva sulla responsabilità del produttore derivante da danno da prodotto difettoso ed ha lo scopo di fornire alle imprese maggiore certezza giuridica e regole armonizzate, inoltre la medesima ha il fine di garantire ai soggetti danneggiati un elevato livello di tutela, ciò con il tentativo di incentivare l’impiego delle applicazioni intelligenti. La seconda segue la ormai nota e menzionata proposta di regolamento del 20 ottobre 2020 e propone per la prima volta un’armonizzazione specifica delle norme in materia di responsabilità civile per i danni prodotti da sistemi intelligenti di qualsiasi tipologia (basso od alto rischio). Tale iniziativa ha un ambito di applicazione diverso dalla prima, in quanto prevede una nuova disciplina da applicare ai soli giudizi civili – promossi dinanzi i giudici nazionali – in caso di colpa extracontrattuale [76]. La proposta ha ad oggetto i casi in cui l’inosservanza della diligenza richiesta, imputabile ad un soggetto, legittimi un altro soggetto (danneggiato) ad agire in giudizio per il risarcimento del danno derivante dalla lesione di situazioni giuridiche soggettive considerate meritevoli di tutela dalla normativa nazionale. Va segnalato che le definizioni che la proposta utilizza sono le medesime della legge sull’intelligenza artificiale [77] e che le uniche regole comuni ad essere invocate hanno ad oggetto la disciplina dell’onere probatorio. Gli ulteriori aspetti generali in materia di responsabilità civile [78] restano territorio esclusivo dei singoli stati membri – aspetto, questo, decisamente problematico. Entrambe le proposte si pongono in rapporto di complementarità con la legge sull’intelligenza artificiale, mirando ad aumentare la fiducia nell’utilizzo delle applicazioni intelligenti. Alla luce delle considerazioni svolte emerge come le nuove fattispecie di responsabilità civile extracontrattuale presentino criticità che le attuali regolamentazioni – prima fra tutte quella italiana [continua ..]


5. Conclusioni

Ciò che emerge dalle considerazioni svolte, è che la trattazione del tema rimane sostanzialmente rinviata; allo stato non è possibile giungere a concrete conclusioni e delineare un preciso regime di responsabilità applicabile ai sistemi dotati di intelligenza artificiale. Ciò in quanto, nella menzionata proposta di regolamento sull’IA, vi è fondamentalmente la sola indicazione che il fornitore di un’applicazione di IA ad alto rischio è chiamata a garantire che il sistema sia conforme a determinati requisiti che ne consentano la certificazione [91]; vi sono poi le descrizioni dei diversi sistemi intelligenti con le annesse definizioni [92]. Analogamente, neppure la proposta di “direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale” del 28 settembre 2022 offre una soluzione; difatti la medesima segue un approccio di armonizzazione minima, limitandosi ad uniformare solo le norme in materia di responsabilità per colpa che disciplinano l’onere della prova a carico di coloro che chiedono il risarcimento del danno causato dalle applicazioni di intelligenza artificiale. Dunque, rispetto alle Proposte europee si rilevano, ad oggi, notevoli difficoltà interpretative; ci si trova ancora in una fase embrionale. A livello nazionale – in attesa di modelli normativi più adeguati e specifici, verranno applicate le tradizionali regole della responsabilità civile. Va specificato che sino ad oggi si è cercato – con scarso successo – di reperire una disciplina applicabile tra le norme vigenti, ma va senz’altro considerato che le norme in materia di responsabilità civile nascono per regolamentare le conseguenze del comportamento umano, di soggetti senzienti e capaci di prendere decisioni totalmente autonome; mentre, l’intelligenza artificiale è un oggetto, uno strumento il cui funzionamento e la cui attività si basano sull’elaborazione di grandi quantità di dati, presentano dunque caratteristiche uniche e inedite e in relazione al quale l’apporto umano è imprescindibile. Perciò, risulta difficile imputare all’intelligenza artificiale una responsabilità giuridica per danni, rendendosi necessario individuare altre strade ed inevitabili forzature. In tal sede [continua ..]


NOTE