Jus CivileCC BY-NC-SA Commercial Licence ISSN 2421-2563
G. Giappichelli Editore

Intelligenza artificiale e responsabilità civile. Alcune osservazioni sulle attuali proposte europee (di Caterina Del Federico Professoressa a contratto – Università Alma Mater Studiorum di Bologna)


Il presente contributo si pone l’obiettivo di analizzare il tema della responsabilità civile dei sistemi dotati di intelligenza artificiale. In particolare, dopo aver individuato le fonti in materia di intelligenza artificiale, verrà svolta una disamina delle proposte europee di regolamentazione e ci si soffermerà sull’analisi della regolamentazione della responsabilità civile dell’IA con particolare riguardo al profilo dell’onere probatorio di spettanza in ambito processuale in caso di danni provocati dai sistemi dotati di IA.

Artificial intelligence and civil liability. Some remarks on current European proposals

The purpose of this paper is to analyze the issue of civil liability of systems with artificial intelligence. In particular, after identifying the sources in the field of artificial intelligence, an examination of European regulatory proposals will be carried out, and an analysis of the regulation of AI civil liability will be focused on, with particular regard to the profile of the burden of proof in the context of litigation in the event of damage caused by AI-powered systems.

SOMMARIO:

1. Premesse introduttive - 2. L’analisi delle fonti in materia di intelligenza artificiale: tra incertezze e complessità - 3. La regolamentazione della responsabilità civile dell’IA - 3.1. Le regole sull’onere probatorio di spettanza - 4. Alcune considerazioni critiche sulle attuali proposte - 5. Conclusioni - NOTE


1. Premesse introduttive

Il progresso tecnologico che ha caratterizzato gli ultimi decenni ha condotto all’elaborazione di sistemi sempre più sofisticati, tanto da essere i medesimi considerati veri e propri protagonisti dell’azione, in grado di sviluppare meccanismi di autoapprendimento e di prendere decisioni autonome, aggiudicandosi l’attributo di “intelligenti” [1].

Il concetto di intelligenza artificiale viene oggi utilizzato in ambiti molto diversi fra loro; da qui la sentita esigenza dei legislatori extraeuropei, europei e nazionali di elaborare regole specifiche dedicate al settore dell’intelligenza artificiale.

Delimitando l’ambito di indagine al campo giuridico, tra i profili di maggiore riflessione ed interesse – con riferimento alle applicazioni di intelligenza artificiale – si segnalano: la sicurezza informatica, la scelta del sistema di responsabilità civile applicabile in caso di danni derivanti dall’utilizzo di applicazioni intelligenti [2], la protezione dei dati personali, la soggettività giuridica delle applicazioni di intelligenza artificiale [3], l’utilizzo di tali sistemi in ambito contrattuale [4], bancario, finanziario [5], sanitario [6] e giudiziario [7].

In tale sede ci si propone di approfondire alcuni aspetti legati al tema della responsabilità civile. Il profilo della risarcibilità dei danni derivanti dall’utilizzo dei sistemi dotati di intelligenza artificiale, difatti, rappresenta uno dei temi più controversi legati all’utilizzo di tali nuovi strumenti.

L’esponenziale sviluppo delle tecnologie automatizzate solleva nuove questioni [8] di responsabilità civile e nuovi scenari, molto diversi rispetto a quelli tradizionalmente affrontati, specialmente in considerazione delle caratteristiche dei sistemi intelligenti [9].

Ciò accade – in particolare – quando i danni sono cagionati dai robot che compiono determinate attività in luogo degli esseri umani e da intelligenze artificiali dotate della capacità di autoapprendimento e le cui scelte siano assunte in base all’elaborazione di un algoritmo e conseguano ad un processo di adattamento c.d. self learning [10].

In tal caso il sistema intelligente si modifica in base ai dati acquisiti nel tempo, adottando così scelte che potrebbero non essere quelle previste durante l’iniziale fase di progettazione e rappresentare il risultato di interazioni impreviste tra i vari componenti del sistema medesimo o con il contesto nel quale lo stesso operi.

Come si avrà modo di evidenziare, sorgono lacune e criticità, venendo in rilievo sia l’inapplicabilità delle regole vigenti ai nuovi fenomeni tecnologici, sia problematiche di tipo interpretativo. In particolare, ci si soffermerà sul tema della responsabilità extra contrattuale in caso di danni cagionati dalle applicazioni di intelligenza artificiale. L’interrogativo principale da porsi è se le regole tradizionali siano idonee a fornire tutela rispetto a danni causati dalle applicazioni menzionate.

Va considerato e chiarito che non esiste al momento una normativa specifica, essendoci soltanto una serie di documenti e di proposte in materia.

Perciò, è sempre più avvertita l’esigenza di introdurre un efficace impianto di tutele per evitare che l’uso di applicazioni intelligenti possa comportare una diminuzione di tutele e di responsabilità rispetto alle regole tradizionali, stante l’esigenza di garantire il medesimo livello di protezione concesso alle vittime delle tecnologie tradizionali [11].

Preliminarmente, e ciò al fine di individuare il quadro di riferimento, risulta opportuno analizzare le fonti [12] vigenti in materia di intelligenza artificiale; si tratta di un’operazione non semplice considerato che negli ultimi due anni si è assistiti ad una proliferazione di documenti.

In seconda battuta ci si soffermerà sulle specifiche regole elaborate in ambito europeo, riguardanti la responsabilità civile in ipotesi di danno derivante dalle applicazioni di intelligenza artificiale. In particolare, le regole inerenti alla responsabilità extracontrattuale – che saranno oggetto di approfondimento – sono state da ultimo inserite nelle recenti Proposte di Dir. del 28 settembre 2022 [13].

In tale ambito, tra gli aspetti maggiormente significativi si ritiene di doversi soffermare su quello relativo all’onere della prova, in quanto da un lato tale aspetto appare l’unico ad essere realmente armonizzato dalle proposte del legislatore europeo, dall’altro sembra in ogni caso suscitare molteplici perplessità.

Prima di giungere alle considerazioni conclusive si tenterà di porre in evidenza le criticità delle nuove e diverse iniziative europee, i cui rispettivi confini risultano quanto mai confusi.


2. L’analisi delle fonti in materia di intelligenza artificiale: tra incertezze e complessità

In un’indagine realizzata nel 2020 [14] sulla diffusione delle tecnologie “intelligenti” tra le imprese europee, la mancanza di regolamentazione in materia di responsabilità è indicata quale uno dei tre ostacoli principali allo sviluppo dell’IA.

Difatti, il disincentivo all’utilizzo di un determinato strumento è nella maggior parte dei casi una diretta conseguenza della mancanza di fiducia in capo ai consumatori – o in senso lato agli utilizzatori – generata da regole incerte, talvolta inesistenti. Ed è proprio tale incertezza che conduce inesorabilmente al rallentamento dello sviluppo tecnologico nel mercato europeo.

Perciò, il legislatore europeo ha tentato con varie proposte di porre rimedio alla mancanza di una regolamentazione in materia di responsabilità delle applicazioni di IA, da ultimo adottando la proposta per una direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intel­ligenza artificiale e la proposta di direttiva sulla responsabilità per prodotti difettosi [15].

La scelta della Direttiva è stata ritenuta necessaria sia al fine ridurre le incertezze giuridiche per i soggetti coinvolti e interessati, quali le persone potenzialmente tenute a rispondere di un danno, gli assicuratori, i danneggiati; sia nel tentativo di prevenire la frammentazione normativa, cui avrebbero condotto specifici adeguamenti delle diverse discipline nazionali in materia di responsabilità civile. In particolare, in merito alla revisione della Direttiva in materia di prodotti difettosi, il Parlamento aveva inizialmente proposto di valutare una sua trasformazione in regolamento, ma la Commissione ha poi optato per la direttiva, stabilendo – all’art. 3 della proposta [16] – la massima armonizzazione.

Tali proposte si inseriscono in un complesso pacchetto normativo che mira a regolare l’IA in modo unitario e sotto ogni punto di vista.

Il pacchetto è costituito dall’ormai nota proposta di regolamento sull’intelligenza artificiale [17] (conosciuta come AI Act) – volta a stabilire requisiti per ridurre i rischi per la sicurezza e i diritti fondamentali – dalla comunicazione della Commissione europea sulla promozione di un approccio europeo all’intel­li­genza artificiale; dall’aggiornamento del piano coordinato sull’intelligenza artificiale (con gli Stati membri dell’UE).

Vi sono poi numerosi altri documenti che rappresentano – come affermato dalla Commissione medesima – “pietre miliari importanti” in materia di intelligenza artificiale.

Dunque, non si tratta di un argomento nuovo, bensì di un tema sul quale l’Unione europea ha cominciato effettivamente a lavorare già nel 2018, con una serie di documenti tra cui: alcuni comunicati stampa [18], dichiarazioni [19], documenti di lavoro [20], comunicazioni [21], poi con il lancio di un’alleanza europea per l’IA [22] e con la costituzione di un gruppo di esperti di alto livello sul tema [23], con un piano coordinato sull’intelligenza artificiale [24].

Nel 2019 sono stati elaborati: comunicazioni [25], linee guida etiche per un’IA affidabile [26], raccomandazioni politiche e di investimento del gruppo di esperti di alto livello dell’IA [27], i lavori della prima assemblea europea dell’IA [28], un pilotaggio dell’elenco di valutazione dell’IA affidabile [29].

Nel 2020 si è giunti al noto Libro Bianco sull’IA [30], ad alcune raccomandazioni ed un elenco di valutazione finale sull’IA affidabile elaborate dal gruppo di esperti [31], una consultazione pubblica sul Libro Bianco [32], un documento sulla valutazione di impatto dell’IA [33], alcune risoluzioni [34], i risultati di una seconda assemblea europea dell’IA [35].

L’anno 2021 ha visto l’elaborazione di: una valutazione di impatto di un regolamento sull’IA [36], un piano coordinato aggiornato sull’IA [37], per poi giungere al menzionato AI Act, ovvero la proposta di regolamento in materia di intelligenza artificiale. Sono poi seguite: la comunicazione sulla promozione di un approccio europeo all’IA [38], una risoluzione sull’intelligenza artificiale nell’istruzione, nella cultura e nel settore audiovisivo [39] e una sull’IA nel diritto penale e sul suo uso da parte della polizia e delle autorità giudiziarie in materia penale [40], un’altra proposta di regolamento sui prodotti difettosi [41], una consultazione pubblica in materia di responsabilità civile sull’adeguamento delle norme in materia di responsabilità all’era digitale e all’in­tel­ligenza artificiale [42], una conferenza di alto livello sull’IA [43], una videoconferenza dei ministri delle telecomunicazioni [44], un comunicato stampa sul rispetto dei diritti fondamentali da parte dell’IA [45], una relazione sullo stato di avanzamento dell’AI Act [46].

Si è giunti al 2022, anno in cui sono stati emanati: una risoluzione sull’intelligenza artificiale nell’era digitale [47], un comunicato stampa [48].

È in tale scenario che nel settembre 2022 sono stati emanati dall’UE due fondamentali documenti: si tratta della proposta di direttiva sulla responsabilità dell’IA, che prevede misure risarcitorie e rimedi a favore dei singoli che hanno subito danni causati dalle applicazioni “intelligenti” e della proposta di direttiva sulla responsabilità per danno da prodotti difettosi.

Dalla moltitudine dei documenti menzionati si è infine giunti all’approvazione dell’AI Act; lo scorso giugno il Parlamento europeo ha adottato la sua posizione negoziale sulla proposta della Commissione europea, approvandola nel suo impianto generale [49], aprendo così la strada all’inizio del procedimento legislativo.

Dall’elencazione effettuata risulta evidente la complessità del quadro di riferimento; ci si trova di fronte ad un sistema di fonti multilivello, di non facile riordino e applicazione.


3. La regolamentazione della responsabilità civile dell’IA

Come anticipato, allo stato attuale non vi è una normativa ad hoc in materia di responsabilità civile delle applicazioni intelligenti; perciò, tale tema rappresenta uno tra i più rilevanti dibattiti giuridici ancora aperti, lasciando irrisolti numerosi profili problematici.

Tra le questioni da porsi vi è sicuramente la seguente: se l’IA risponda dei danni cagionati e se si tratti – dunque – di un soggetto giuridico al quale rivolgersi per chiedere un risarcimento. Anche su questo tema si riscontrano opinioni divergenti. C’è, difatti, chi ritiene che le applicazioni di A.I. siano entità dotate di caratteristiche riconducibili a quelle umane e – di conseguenza – alle quali risulta possibile attribuire una soggettività [50]. Un tale approccio conduce ad interrogarsi sul significato di “intelligenza” nonché sulla sua attribuibilità ad un software.

L’opzione di riconoscere la soggettività alle applicazioni di IA è stata sin da subito vagliata, tanto che la medesima era menzionata anche nella Risoluzione del Parlamento europeo del 16 febbraio 2017, ove si invitava la Commissione europea a valutare “l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con i terzi”.

La corrente di pensiero maggioritaria – e alla quale si intende aderire – ritiene che attribuire soggettività giuridica a un’applicazione di IA o a un robot, rappresenti una finta soluzione.

D’altro canto, pur se fosse riconosciuta all’applicazione intelligente una soggettività giuridica, nel caso in cui l’applicazione fosse ritenuta responsabile, occorrerebbe comunque risolvere il problema del risarcimento del danno cagionato, questione senza dubbio centrale. Il programma di intelligenza artificiale, difatti, non avrebbe, almeno allo stato, un patrimonio di cui poter disporre e con il quale poter risarcire il danno. La questione risarcimento, dunque, rimarrebbe priva di qualsivoglia soluzione.

Per ovviare ad una tale lacuna potrebbe essere costituito un patrimonio da riservare all’applicazione di intelligenza artificiale, proprio allo scopo di consentire il risarcimento del danno.

Tuttavia – come posto in evidenza da parte della dottrina – se si ritiene di preservare un patrimonio a questo scopo, non è necessario costituire il complesso edificio giuridico della soggettività dell’applicazione [51]. Si può, difatti, costituire un fondo riservato al risarcimento di queste tipologie di danni a prescindere dal profilo della soggettività.

Il vero nodo della questione, allora, rimane altro: quello dell’individuazione dei criteri di allocazione della responsabilità. C’è dunque da interrogarsi sulla tenuta delle regole in materia di responsabilità civile e sul­l’eventuale necessità di elaborare norme ad hoc [52].

Se l’intelligenza artificiale agisce in modo non prevedibile a priori, neanche dal produttore, non risulta possibile utilizzare i criteri tradizionali della colpa, della negligenza, del dolo, che sono – come è noto – criteri soggettivi. Ciò sembrerebbe suggerire – allora – di passare a un metodo di responsabilità oggettiva, che non ricerchi la colpa o l’errore, il che in taluni casi è impraticabile e non porta a risultati concreti, stante la difficoltà o l’impossibilità dell’operazione, sotto il profilo tecnologico.

Occorrerebbe, al contrario, individuare un sistema di allocazione della responsabilità, secondo un criterio di massima efficienza per la società; come è stato proposto, un nuovo modello, una nuova normativa su questo punto [53].

Per inciso, va segnalato che molte fattispecie involvono rapporti contrattuali [54] e in tali ipotesi i soggetti saranno naturalmente legittimati ad attivare rimedi contrattuali per ottenere il risarcimento dei c.d. danni algoritmici [55].

Chiaramente il danneggiato agirà – a seconda della fattispecie concreta – in via extracontrattuale nei confronti dei vari soggetti coinvolti nel funzionamento dei sistemi intelligenti ai quali non sia direttamente legato da rapporti contrattuali. È in tale ipotesi che entrano in gioco due diversi profili [56].

Il primo concerne la responsabilità del produttore, considerato che i sistemi intelligenti sono incorporati in beni e servizi e possono causare nuovi rischi per la sicurezza degli utenti; inoltre, i sistemi intelligenti sono qualificabili come oggetti, pertanto, risulta loro applicabile la normativa inerente alla progettazione e alla costruzione di ‘prodotti’, alla sicurezza pubblica, alla tutela degli utenti e dei consumatori nonché alla protezione della salute [57].

Perciò, in tale contesto assume un ruolo chiave la Dir. 85/274/CE sulla responsabilità da prodotto difettoso (confluita in Italia nel Codice del Consumo agli artt. 114 ss.), la quale ha ad oggetto il risarcimento dei danni provocati da difetti di fabbricazione di un prodotto e che prevede un regime di responsabilità oggettiva, prescindendo – di conseguenza – dall’accertamento della colpa.

In astratto, la normativa menzionata risulterebbe applicabile ad alcune condizioni: se si ricomprendono le applicazioni intelligenti nella nozione di prodotto [58] e se sussistono difetti [59] derivanti da errori di progettazione, di programmazione e di costruzione [60].

Tuttavia, se da un lato la normativa citata ha dimostrato per decenni di essere uno strumento efficace per il risarcimento del danno provocato da prodotto difettoso [61], dall’altro solleva anche una serie di criticità in merito ad una sua possibile applicazione alle applicazioni intelligenti [62].

A titolo esemplificativo, si considerino i sistemi che agiscono in piena autonomia, come quelli di deep learning (apprendimento automatico) e di full automation (automazione completa); in tali ipotesi i processi non risultano sempre controllabili dai produttori, che di conseguenza non possono in alcun modo essere considerati responsabili e ai quali – dunque – non risulta applicabile la disciplina sulla responsabilità del produttore.

Le attuali norme non specificano chi sia il responsabile nel caso in cui un prodotto venga modificato a seguito della sua immissione sul mercato o qualora sia importato dal consumatore in un Paese non europeo. Tali lacune non garantiscono né la protezione dei consumatori né la commercializzazione dei prodotti intelligenti.

Pertanto, risulta certamente apprezzabile la menzionata iniziativa della Commissione europea di revisione della disciplina sulla responsabilità del produttore.

Inoltre, altro aspetto che viene in rilievo riguarda il fatto che la disciplina in oggetto si applica soltanto in caso di pregiudizi derivanti da errore di programmazione, di progettazione e di costruzione del sistema intelligente; da ciò derivando che i modelli di responsabilità extracontrattuale restano comunque soggetti alle diverse e peculiari discipline dei singoli Stati membri, spesso basate su principi alquanto diversi tra loro [63].

Diventa allora compito del singolo interprete valutare l’applicabilità delle tradizionali regole civilistiche in materia di responsabilità alle fattispecie concrete [64]. Con riferimento all’ordinamento italiano, ad esempio – e ciò è stato sottolineato da attenta dottrina [65] –, risulta opportuno chiedersi se, tra i vari criteri esistenti, quello di imputazione della custodia possa costituire un utile strumento al fine di identificare un responsabile cui riferire i costi di un danno cagionato dai dispositivi dotati di intelligenza artificiale quando ciò costituisca un’attività antigiuridica [66].


3.1. Le regole sull’onere probatorio di spettanza

Nell’affrontare il tema dell’intelligenza artificiale e della connessa responsabilità civile, particolare rilievo assume l’indagine relativa al riparto dell’onere probatorio di spettanza tra produttore e fruitore finale in caso di risarcimento dei danni derivanti dall’utilizzo di un dispositivo dotato di intelligenza artificiale; ciò anche alla luce dell’evoluzione dottrinale sul punto e delle proposte formulate in materia.

Partendo da un’evoluzione storica a livello europeo della normativa applicabile, viene subito in rilievo la Dir. 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi. Tale direttiva, sebbene concernete in senso ampio e generale la responsabilità da prodotto difettoso, stabilisce al suo art. 4 che “il danneggiato deve provare il danno, il difetto e la connessione causale tra difetto e danno”, mentre, in base a quanto disposto dal successivo art. 7 al produttore compete fornire la prova liberatoria dimostrando: “a) che non ha messo il prodotto in circolazione; b) che, tenuto conto delle circostanze, è lecito ritenere che il difetto che ha causato il danno non esistesse quando l’aveva messo in circolazione o sia sorto successivamente; c) che non ha fabbricato il prodotto per la vendita o qualsiasi altra forma di distribuzione a scopo economico, né l’ha fabbricato o distribuito nel quadro della sua attività professionale; d) che il difetto è dovuto alla conformità del prodotto a regole imperative emanate dai poteri pubblici; e) che lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo in circolazione il prodotto non permetteva di scoprire l’esistenza del difetto; f) nel caso del produttore di una parte componente, che il difetto è dovuto alla concezione del prodotto in cui è stata incorporata la parte o alle istruzione date dal produttore del prodotto”.

Ebbene, la richiamata direttiva ha l’evidente limite di imporre al consumatore finale, attinto da un danno da utilizzo di prodotto dotato di intelligenza artificiale, l’onere di provare il difetto del prodotto, il danno subito e il nesso di causalità. Ciò fa sì che detto riparto, se riferito a prodotti di particolare complessità tecnologica ed informatica, potrebbe rendere eccessivamente gravoso, se non finanche improbabile, all’utilizzatore soddisfare compiutamente il proprio onere probatorio di spettanza [67].

Questa, del resto, rappresenta esattamente la preoccupazione del legislatore europeo (e non solo [68]), il quale già nei considerando della Risoluzione del Parlamento europeo del 20 ottobre 2020, rimarcava come la Dir. 85/374/CEE del Consiglio, pur avendo dimostrato da oltre trent’anni di essere un mezzo efficace per ottenere un risarcimento per i danni cagionati da un prodotto difettoso, tale da dover essere utilizzata anche riguardo alle azioni per responsabilità civile intentate nei confronti del produttore di un sistema di IA difettoso, necessiti di rivisitazioni per essere adattata al mondo digitale e per affrontare le sfide poste dalle tecnologie emergenti, garantendo in tal modo un livello elevato di efficace protezione dei consumatori, come pure la certezza giuridica per i consumatori e le imprese.

È di palmare evidenza, infatti, come i sistemi dotati di intelligenza artificiale, proprio per la loro complessità tecnologica, la loro autonomia e la possibile “inaccessibilità” agli algoritmi in essi presenti (c.d. effetto “scatola nera”) [69] rendono anacronistica l’applicazione della Dir. del 1985.

Da qui la necessità non solo di armonizzare a livello europeo la relativa disciplina in tema di responsabilità civile connessa all’uso di strumenti dotati di intelligenza artificiale, ma soprattutto l’esigenza di adeguarla al progresso tecnologico attuale.

Proprio su questo solco si inserisce la citata proposta di Dir. del 28 settembre 2022, la quale andando oltre l’idea originale della menzionata Risoluzione del 20 ottobre 2020, con la quale era stata prospettata la possibilità di ricorrere alla disciplina contenuta nella Dir. 85/374/CEE che – come detto – se da un lato riconosce una responsabilità oggettiva del produttore, tuttavia la subordina all’assolvimento da parte dell’utilizzato danneggiato di provare il danno, il difetto ed il nesso di causalità, ha il merito di porre a suo fondamento proprio l’esigenza di rileggere in chiave nuova la disciplina sull’onere della prova.

Al riguardo, la menzionata proposta, pur non invertendo l’onere probatorio tra presunto danneggiato e danneggiante [70], mira ad agevolare le parti lese nel provare la fondatezza delle loro pretese, proprio in ragione della complessità, dell’autonomia e dell’opacità dei sistemi dotati di intelligenza artificiale [71], ricorrendo due differenti strumenti:

– l’applicazione della c.d. presunzione relativa;

– la divulgazione di informazioni relative.

Quanto al primo strumento, l’art. 4 della proposta di direttiva in esame stabilisce a chiare lettere che, ai fini dell’applicazione delle norme in materia di responsabilità alle domande di risarcimento del danno, gli organi giurisdizionali nazionali presumono l’esistenza del nesso di causalità tra la colpa del convenuto e l’output prodotto da un sistema di IA [72] o la mancata produzione di un output da parte di tale sistema se sono soddisfatte tutte le condizioni seguenti:

“(a) l’attore ha dimostrato o l’organo giurisdizionale ha presunto, a norma dell’articolo 3, paragrafo 5, la colpa del convenuto o di una persona della cui condotta il convenuto è responsabile, consistente nella non conformità a un obbligo di diligenza previsto dal diritto dell’Unione o nazionale e direttamente inteso a proteggere dal danno verificatosi;

(b) si possa ritenere ragionevolmente probabile, sulla base delle circostanze del caso, che il comportamento colposo abbia influito sull’output prodotto dal sistema di IA o sulla mancata produzione di un output da parte di tale sistema;

(c) l’attore abbia dimostrato che il danno è stato causato dall’output prodotto dal sistema di IA o dalla mancata produzione di un output da parte di tale sistema”.

Inoltre, la proposta in esame prevede ulteriori due diversi regimi in tema di onere probatorio, l’uno riguardante le domande di risarcimento danni proposte contro un fornitore di IA ad alto rischio, l’altra concernente una domanda di risarcimento del danno relativa all’utilizzo di un sistema di IA nel corso di un’attività personale non professionale.

Quanto al primo profilo, l’art. 4 della proposta di Dir. del 28 settembre 2022 – rinviando quanto alla sua definizione alla proposta di regolamento sull’IA – stabilisce anzitutto un’eccezione alla presunzione di causalità laddove il convenuto dimostri che l’attore possa ragionevolmente accedere a elementi di prova ed abbia competenze sufficienti per dimostrare, dunque, il nesso causale.

Nel caso di sistemi di IA che non siano classificabili ad alto rischio, l’articolo 4, paragrafo 5, stabilisce – di contro – quale condizione per l’applicabilità della presunzione di causalità la circostanza che l’organo giurisdizionale accerti come eccessivamente difficile e gravoso per l’attore dimostrare l’esistenza del nesso causale.

Tale difficoltà deve essere valutata in concreto alla luce delle caratteristiche dei singoli sistemi di IA, come l’autonomia e l’opacità, che nella pratica potrebbero rendere estremamente ardua la spiegazione del funzionamento interno del sistema di IA e compromettere, pertanto, la capacità dell’attore di dimostrare l’esi­stenza del nesso di causalità tra la colpa del convenuto e l’output del sistema di IA [73].

Inoltre, quanto all’utilizzo di un sistema di IA nel corso di un’attività personale non professionale, l’art. 4, par. 6, stabilisce che la presunzione di casualità dovrebbe applicarsi solo laddove la parte abbia interferito materialmente con le condizioni di funzionamento del sistema di IA o se quest’ultimo aveva l’obbligo ed era in grado di determinare le condizioni di funzionamento del sistema di IA e non l’abbia fatto.

Per quanto attiene, invece, alla divulgazione delle informazioni l’art. 3 della proposta, con riferimento ai c.d. sistemi di intelligenza artificiale “ad alto rischio”, prevede che gli Stati debbano attuare meccanismi procedurali per consentire ai giudici di ordinare al produttore di fornire gli elementi di prova strettamente necessari nel caso in cui vi sia il sospetto che tale sistema ad alto rischio abbia causato il danno asserito da un determinato utente, prevedendo poi anche varie accortezze per la conservazione di tali prove.

In caso di mancato assolvimento di detto ordine di esibizione da parte del produttore il Giudice dovrebbe considerare provata la colpa.

Come emerge, la proposta di Dir. del settembre 2022, rispetto alla precedente proposta di regolamento del 2020 ha anzitutto il fine di alleggerire, da un punto di vista processuale, l’onere probatorio posto a carico del danneggiato, introducendo, in presenza di determinate condizioni, una presunzione di colpevolezza del danneggiante produttore [74].

Si assisterebbe, pertanto, ad una inversione dell’onere della prova, tale per cui spetterebbe al produttore dimostrare di aver fatto tutto ciò che era esigibile al fine di evitare il danno realizzatosi a discapito del consumatore, contrariamente a quanto previsto dalla Dir. 85/374/CEE, richiamata inizialmente dalla Risoluzione del 20 ottobre 2020 che – come detto – stabilisce una responsabilità oggettiva del produttore condizionata, tuttavia, all’adempimento di un “quasi diabolico” onere probatorio a carico del fruitore finale [75].

Chiaro è che le peculiarità e gli innegabili elementi di novità dei sistemi dotati di intelligenza artificiale richiedono di riscrivere in chiave nuova la disciplina della responsabilità e dunque dell’onere probatorio di spettanza tra produttore e utilizzatore.

Del resto, in questo scenario normativo in via di elaborazione, volendo ragionare sulla base delle norme astrattamente applicabili alla materia e presenti nell’ordinamento italiano, per come ipotizzate da parte della dottrina, ci si rende conto della assoluta inadeguatezza delle stesse rispetto al tema dell’IA.

La soluzione potrebbe essere quella di stabilire che i produttori e gestori di sistemi dotati di intelligenza artificiale, proprio alla luce del loro sviluppo tecnologico e del loro funzionamento algoritmico e matematico, avulso dalle consuete dinamiche antropologiche, debbano, in caso di eventi sinistrosi, fornire de plano ogni utile informazione al fine di agevolare l’accertamento della responsabilità.


4. Alcune considerazioni critiche sulle attuali proposte

Ad oggi – come evidenziato sopra – le istituzioni europee hanno avanzato numerose proposte, tra le quali le ultime due assumono rilevanza centrale in materia di responsabilità civile. Si tratta delle menzionate proposte di Dir. dello scorso 28 settembre, in attesa di approvazione dal Parlamento europeo e dal Consiglio.

La prima ha ad oggetto una revisione della vigente direttiva sulla responsabilità del produttore derivante da danno da prodotto difettoso ed ha lo scopo di fornire alle imprese maggiore certezza giuridica e regole armonizzate, inoltre la medesima ha il fine di garantire ai soggetti danneggiati un elevato livello di tutela, ciò con il tentativo di incentivare l’impiego delle applicazioni intelligenti.

La seconda segue la ormai nota e menzionata proposta di regolamento del 20 ottobre 2020 e propone per la prima volta un’armonizzazione specifica delle norme in materia di responsabilità civile per i danni prodotti da sistemi intelligenti di qualsiasi tipologia (basso od alto rischio). Tale iniziativa ha un ambito di applicazione diverso dalla prima, in quanto prevede una nuova disciplina da applicare ai soli giudizi civili – promossi dinanzi i giudici nazionali – in caso di colpa extracontrattuale [76].

La proposta ha ad oggetto i casi in cui l’inosservanza della diligenza richiesta, imputabile ad un soggetto, legittimi un altro soggetto (danneggiato) ad agire in giudizio per il risarcimento del danno derivante dalla lesione di situazioni giuridiche soggettive considerate meritevoli di tutela dalla normativa nazionale.

Va segnalato che le definizioni che la proposta utilizza sono le medesime della legge sull’intelligenza artificiale [77] e che le uniche regole comuni ad essere invocate hanno ad oggetto la disciplina dell’onere probatorio.

Gli ulteriori aspetti generali in materia di responsabilità civile [78] restano territorio esclusivo dei singoli stati membri – aspetto, questo, decisamente problematico.

Entrambe le proposte si pongono in rapporto di complementarità con la legge sull’intelligenza artificiale, mirando ad aumentare la fiducia nell’utilizzo delle applicazioni intelligenti.

Alla luce delle considerazioni svolte emerge come le nuove fattispecie di responsabilità civile extracontrattuale presentino criticità che le attuali regolamentazioni – prima fra tutte quella italiana – non riescono a risolvere.

In primis, come anticipato, la partecipazione di molteplici attori all’elaborazione, all’ideazione, alla diffusione, allo sviluppo, all’utilizzazione e alla progettazione del sistema dotato di intelligenza artificiale rendono quanto mai complessa l’individuazione dei plurimi nessi causali e conseguentemente del soggetto responsabile del danno occorso [79]. Considerato poi che i soggetti imputabili potrebbero essere numerosi, ciò renderebbe particolarmente oneroso per il danneggiato agire in giudizio, ponendosi altresì problemi di giurisdizione, di notifiche, nonché un’ingente quantità di domande di manleva da parte dei vari soggetti coinvolti [80].

Inoltre, rischierebbe di risultare altresì eccessivamente gravoso dimostrare il nesso di causalità tra il fatto posto in essere dal sistema intelligente e l’evento dannoso, quando si tratti di sistemi particolarmente complessi a livello tecnologico.

Al fine di risolvere le citate problematiche a livello europeo – come evidenziato – il legislatore ha adottato molteplici provvedimenti, volti proprio a superare le insufficienze dei sistemi nazionali e tentando dunque di fornire un’armonizzazione minima nell’ottica eurounitaria.

È stato altresì messo in luce come per monitorare e gestire concretamente i rischi posti dai nuovi sistemi risulti fondamentale l’impiego di un approccio analogo a quello che prevede la normativa europea in materia di trattamento automatizzato dei dati personali [81], basata sui principi di prevenzione e di precauzione e su un sistema multilivello di responsabilità, nonché sul principio di accountability, da gran parte della dottrina considerato più adatto per risolvere i problemi correlati alle tecnologie emergenti.

Con ciò si intenderebbe profilare un meccanismo multilivello di distribuzione di responsabilità tra i vari operatori, che vada chiaramente a coprire l’intero processo “costituente” l’applicazione intelligente [82].

Come precisato altresì dal Comitato economico e sociale europeo, occorre sviluppare nuove procedure di normazione per la verifica e la convalida dei sistemi di IA, sulla base di un’ampia gamma di standard, al fine di poter valutare e controllare la sicurezza, la trasparenza, la comprensibilità, la rendicontabilità e la responsabilità etica di tali sistemi [83].

Solo in questo modo sarà possibile procedere verso un’intelligenza artificiale affidabile ed antropocentrica e conforme ai principi etici [84].

La maggiore criticità che si riscontra nelle proposte in gestazione – che sono state analizzate in alcuni dei loro punti focali – è che se da un lato il legislatore europeo ha avuto il merito di essere stato il primo a porsi il problema di adottare una normativa ad hoc e di fissare regole armonizzate, ponendo alcune linee comuni, dall’altro lascia eccessiva discrezionalità ai singoli Stati su un profilo così delicato quale quello della responsabilità. Si rischia in tal modo di rendere inutile qualsiasi tentativo di uniformità e – conseguentemente – di far venire meno la fiducia degli utenti.

Si sottolinea – la questione non è di poco conto – che, fatta eccezione per le presunzioni che introduce, la proposta di direttiva non è volta ad armonizzare le norme nazionali che stabiliscono su quale parte incombe l’onere della prova o quale sia il grado di certezza richiesto in relazione al livello della prova [85]. La proposta, difatti si limita ad uniformare soltanto le norme in materia di responsabilità per colpa, che disciplinano l’onere della prova a carico di coloro che chiedono il risarcimento del danno causato da sistemi di I.A.

Come è dato leggere nei Considerando, la direttiva proposta dovrebbe adottare un approccio di armonizzazione minima, tale da consentire all’attore di invocare norme nazionali più favorevoli nei casi in cui il danno sia stato causato a sistemi di I.A. Ciò significa che le leggi nazionali possono mantenere – ad esempio – l’inversione dell’onere della prova nel quadro della disciplina nazionale della responsabilità per colpa, oppure i regimi nazionali di responsabilità oggettiva [86].

L’obiettivo della proposta in oggetto appare quello di eliminare il divario risarcitorio che si ha tra i casi in cui il danno sia causato da un sistema di I.A. e i casi in cui il danno derivi da tecnologie diverse rispetto al­l’I.A.

Ciò in quanto nella prima ipotesi il danneggiato potrebbe trovarsi in condizioni di estrema difficoltà, nel soddisfare l’onere della prova, per le caratteristiche proprie dei sistemi di I.A.: opacità, complessità, autonomia, opacità, caratteristiche che portano al c.d. effetto black box [87]. È per questo che la proposta introduce meccanismi fondati su presunzioni e implementa – al ricorrere di determinati presupposti – l’esercizio dei diritti di accesso del danneggiato agli elementi di prova pertinenti [88].

L’art. 3, rubricato «Divulgazione degli elementi di prova» prevede che un organo giurisdizionale possa ordinare la divulgazione di elementi di prova – anche prima di una domanda vera e propria di risarcimento danni – purché la richiesta sia suffragata da fatti e prove sufficienti a dimostrare la plausibilità della domanda di risarcimento in questione e gli elementi di prova richiesti e purché gli elementi di prova siano a disposizione dei destinatari della richiesta.

Sul piano civilistico l’accertata responsabilità patrimoniale può essere fondata sull’attribuzione colpevole del danno, ma anche sulla responsabilità oggettiva ricadente comunque sull’operatore [89]. Una soluzione potrebbe essere quella di assimilare i danni prodotti dalla macchina pensante alla responsabilità civile per la proprietà o il possesso di un veicolo a motore, per cui la legge impone la polizza assicurativa obbligatoria. Si potrebbe immaginare la costituzione di un fondo di garanzia patrimoniale per fronteggiare il rischio di difficile monetizzazione, imponderabile negli effetti allo stato delle nostre conoscenze, proprio nella prospettiva del fine di non discriminazione [90].


5. Conclusioni

Ciò che emerge dalle considerazioni svolte, è che la trattazione del tema rimane sostanzialmente rinviata; allo stato non è possibile giungere a concrete conclusioni e delineare un preciso regime di responsabilità applicabile ai sistemi dotati di intelligenza artificiale.

Ciò in quanto, nella menzionata proposta di regolamento sull’IA, vi è fondamentalmente la sola indicazione che il fornitore di un’applicazione di IA ad alto rischio è chiamata a garantire che il sistema sia conforme a determinati requisiti che ne consentano la certificazione [91]; vi sono poi le descrizioni dei diversi sistemi intelligenti con le annesse definizioni [92].

Analogamente, neppure la proposta di “direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale” del 28 settembre 2022 offre una soluzione; difatti la medesima segue un approccio di armonizzazione minima, limitandosi ad uniformare solo le norme in materia di responsabilità per colpa che disciplinano l’onere della prova a carico di coloro che chiedono il risarcimento del danno causato dalle applicazioni di intelligenza artificiale.

Dunque, rispetto alle Proposte europee si rilevano, ad oggi, notevoli difficoltà interpretative; ci si trova ancora in una fase embrionale.

A livello nazionale – in attesa di modelli normativi più adeguati e specifici, verranno applicate le tradizionali regole della responsabilità civile.

Va specificato che sino ad oggi si è cercato – con scarso successo – di reperire una disciplina applicabile tra le norme vigenti, ma va senz’altro considerato che le norme in materia di responsabilità civile nascono per regolamentare le conseguenze del comportamento umano, di soggetti senzienti e capaci di prendere decisioni totalmente autonome; mentre, l’intelligenza artificiale è un oggetto, uno strumento il cui funzionamento e la cui attività si basano sull’elaborazione di grandi quantità di dati, presentano dunque caratteristiche uniche e inedite e in relazione al quale l’apporto umano è imprescindibile.

Perciò, risulta difficile imputare all’intelligenza artificiale una responsabilità giuridica per danni, rendendosi necessario individuare altre strade ed inevitabili forzature.

In tal sede non è possibile ripercorrere tutte le ricostruzioni dottrinali che tramite puntuali ricostruzioni si propongono di applicare le norme vigenti in materia di responsabilità aquiliana alle ipotesi di danno cagionato da dispositivi dotati di intelligenza artificiale.

Sia permesso il richiamo ad alcune norme soltanto al fine di evidenziare alcuni dei limiti della normativa esistente rispetto al fenomeno dell’intelligenza artificiale. In particolare, si richiamano gli artt. 2051 e 2051 cod. civ., che prevedono, rispettivamente, l’ipotesi della responsabilità da attività pericolosa e l’ipotesi di responsabilità da cose in custodia.

Tali disposizioni non appaiono del tutto adeguate rispetto alle peculiarità proprie dei dispositivi intelligenti. Difatti, non è detto che l’utilizzo di tali dispositivi rappresenti necessariamente una attività pericolosa, cioè tale da comportare una rilevante probabilità di causare danni a terzi.

Il richiamo alla disciplina di cui all’art. 2050 cod. civ. in materia di responsabilità per l’esercizio di attività pericolose [93] ipotizzata in dottrina, appare anacronistica ed inadeguata rispetto alla materia dell’intelligenza artificiale.

Infatti, ritenere che un sistema dotato di intelligenza artificiale possa annoverarsi nell’ambito delle c.d. attività pericolose [94] non appare condivisibile posto che – muovendo proprio dalla definizione ormai pacifica in giurisprudenza di attività pericolosa [95] e cioè di una attività che per le proprie peculiarità intrinseche comporti con rilevante possibilità il verificarsi di un danno – non sembra potersi in alcun modo riferire ai sistemi dotati di intelligenza artificiale.

D’altra parte, come è stato autorevolmente affermato, l’intelligenza artificiale non è intrinsecamente pericolosa e non le si addice tale attributo, dal momento che, essendo il simbolo della tecnica, è, per ciò stesso, più affidabile dell’uomo, rappresentando, d’altra parte, un mezzo correttivo o integrativo delle imprecisioni umane [96].

Pur trovandosi ancora in un contesto iniziale circa l’utilizzo di sistemi dotati di intelligenza artificiale, si può sostenere senza tema di smentita come gli stessi piuttosto che dimostrare un considerevole rischio di danni, rappresentano – piuttosto – un mezzo idoneo a correggere l’errore umano e ad evitare i rischi connessi ad alcune attività che presuppongono un rischio [97], con conseguente esclusione della responsabilità di cui al­l’art. 2050 cod. civ. da alcuni prospettata.

Analogamente, la nozione di custodia mal si attaglia ad un sistema in grado di prendere decisioni o esprimere opinioni in modo indipendente. Come è stato sottolineato, l’art. 2051 cod. civ., descrivendo la nozione di custode come un soggetto che ha il potere di controllare le condizioni di rischio della cosa [98], “rimane legato ad una dimensione, per così dire, ‘cosale’, che non appare esaustiva nella dimensione dell’intelli­genza artificiale [99].

Inoltre, ciò rientra tra i profili di maggior criticità, tali disposizioni non esonerano il danneggiato dal fornire la prova del danno subito, oltre che del nesso causale tra il danno sofferto e l’attività pericolosa o la cosa in custodia.

Pare, dunque, in considerazione delle criticità emerse, che per individuare l’opzione ricostruttiva preferibile non resta che attendere i prossimi passi del legislatore europeo.


NOTE

[1] Parte della dottrina dubita della correttezza dell’attributo “intelligente” riferito ad una macchina, sottolineandone la contraddittorietà, in quanto trattasi di una dote propria dell’uomo in quanto tale. In questo senso G. Finocchiaro, Intelligenza artificiale e responsabilità, in Contr. impr., 2, 2020, p. 713 ss. (in particolare v. p. 724), la quale rileva che “già utilizzare questo termine induce a sviluppare la narrazione in termini antropomorfici”. Si consideri sul punto – e in senso contrario – il pensiero di Turing, che sembra intravedere una sorta di possibile corrispondenza tra il pensiero umano e quello della macchina. Il noto inventore assumeva che una macchina potesse essere ritenuta intelligente nel caso in cui fosse capace di riprodurre la logica del ragionamento umano. Ciò elevava la macchina ad oggetto pensante con le stesse capacità umane, ma certamente non disconosceva che dietro la macchina ci fosse l’intelligenza umana. V. A. Turing, Computing machinery and intelligence, Londra, 1950.

[2] Senza alcuna pretesa di esaustività – considerate la rilevanza e l’ampiezza del tema – si consultino U. Ruffolo (a cura di), Intelligenza artificiale e responsabilità, Milano, 2017; Id., Intelligenza artificiale, machine learning e responsabilità da algoritmo, in Giur. it., 7, 2019, p. 1689 ss.; G. Finocchiaro, Intelligenza artificiale e responsabilità, cit., p. 713 ss.; M. Bassini, L. Liguori, O. Pollicino, Sistemi di intelligenza artificiale, responsabilità e accountability. Verso nuovi paradigmi?, in Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di Pizzetti, Torino, 2018; G. Alpa, (a cura di), Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pisa, 2020; U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione europea, in Riv. dir. civ., 6, 2020, 1246 ss.; M. Ratti, Riflessioni in materia di responsabilità civile e danno cagionato da dispositivo intelligente alla luce dell’attuale scenario normativo, in Contr e impr., 3, 2020, p. 1174 ss.; D. Locatello, Osservazioni sulla costruzione di un regime europeo di responsabilità civile per l’intelligenza artificiale, in Jus civile, 1, 2022, p. 130 ss. Con riferimento al tema specifico della responsabilità civile delle c.d. autonomous car, si rinvia a G. Calabresi – E. Al Mureden, Driveless cars. Intelligenza artificiale e futuro della mobilità, Bologna, 2021 e Al Mureden, Autonomous cars e responsabilità civile tra disciplina vigente e prospettive de iure condendo, in Contr. e impr., 3, 2019, 895 ss.

[3] Il riferimento è alla possibilità di un riconoscimento della personalità giuridica del sistema dotato di intelligenza artificiale. Per approfondimenti sul tema in senso affermativo v. U. Pagallo, The laws of Robots, Berlino, 2013; G. Sartor, Cognitive automata and the law: electronic contracting and the intentionally of software agents, in Artificial Intelligence Law, 2009, p. 253 ss.; G. Teubner, Rights of Non-Humans? Electronic Agents and Animals as New Actors in Politics and Law, in Journal of Law and Society, 2016, p. 497 ss.; Id., Soggetti giuridici digitali? Sullo status privatistico degli agenti software, Napoli, 2019. In senso contrario v. A. Bertolini, G. Aiello, Robot companions: a legal and ethical analysis, in Information society, 2018, p. 130 ss.; A. Bertolini, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, in Law, Innovation and Technology, 1, 2013, 214 ss., L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica, del diritto, 2018, 713 ss.; S. Toffoletto, IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento), note a margine del convegno “Intelligenza artificiale e i primi profili applicativi: Giustizia, IoT e Lavoratori” (Aula Magna del Palazzo di Giustizia di Milano), 17 aprile 2018; G. Finocchiaro, La conclusione del contratto telematico mediante i “software agents”: un falso problema giuridico? Brevi considerazioni, in Contratto e impresa, 2, 2002, 500 ss.

Con riferimento specifico al tema della personalità giuridica dei robot, v. M. Costanza, Impresa robotizzata e responsabilità, in U. Ruffolo (a cura di), Intelligenza artificiale, cit., in particolare 107 ss.; A. Santossuoso, C. Boscarato, F. Carleo, Robot e diritto: una prima ricognizione, in Nuova giur. civ. comm., 2, 2012, 494 ss.

[4] Sulle applicazioni dei sistemi dotati di intelligenza artificiale in materia contrattuale e sulle connesse problematiche v. F. Di Giovanni, Attività di contrattuale e intelligenza artificiale, in Giur. it., 2019, 1677 ss. Inoltre, sulla responsabilità contrattuale, connessa all’utilizzo dell’intelligenza artificiale, v. M. Bassini, L. Liguori, O. Pollicino, Sistemi di intelligenza artificiale, responsabilità e accountability. Verso nuovi paradigmi?, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, 333 ss.; A Massolo, Responsabilità civile e AI, ivi, 373 ss.

[5] Su questi temi v. il contributo di V. Vietri, FinTech: la rivoluzione nel mondo della finanza, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020, 531 ss. Si consulti inoltre il documento emanato dall’ABI (Associazione Bancaria Italiana) dell’aprile 2021, intitolato Intelligenza artificiale in banca: stato dell’arte e prospettive.

[6] Sul tema si segnalano i contributi di U. Ruffolo, La responsabilità medica – Le “mobili frontiere” della responsabilità medica, in Giurisprudenza Italiana, 2, 2021, 456 ss.; Id., La responsabilità medica – L’intelligenza artificiale in sanità: dispositivi medici, responsabilità e “potenziamento”, in Giurisprudenza Italiana, 2, 2021. V. inoltre gli approfondimenti di V. De Berardinis, L’im­piego delle nuove tecnologie in medicina, in G. Alpa (a cura di), Diritto e intelligenza artificiale, cit., 489 ss.

[7] Il riferimento – in tale sede – non può che essere al processo civile; per alcuni interessanti spunti, tra i più recenti contributi, v. E. Gabellini, Algoritmi decisionali e processo civile: limiti e prospettive, in Rivista Trimestrale di Diritto e Procedura Civile, 1, 2022, 59 ss.

[8] Gli interrogativi giuridici che pone l’intelligenza artificiale vengono approfonditi nel contributo di E. Gabrielli e U. Ruffolo, Intelligenza Artificiale e diritto – Introduzione, in Giurisprudenza Italiana, 7, 2019, 1657 ss.

[9] Come noto complessi, opachi, a volta non controllabili e non prevedibili.

[10] In tal senso L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, 4, 2018, 713 ss. (in particlare v. 722). È chiaro che non si può parlare di un’unica intelligenza artificiale, bensì di ‘intelligenze artificiali’, in quanto le stesse possono differenziarsi, a seconda dei tipi di machine learning o di agenti software, più o meno autonomi.

[11] Così la Relazione della Commissione al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità, 19 febbraio 2020, (COM (2020), 64 final), 19.

[12] Fonti in senso lato tenuto conto che la maggior parte dei documenti citati non sono in alcun modo vincolanti (rientrando nella categoria della c.d. soft law).

[13] Si tratta della recente proposta di direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale, Bruxelles, 28.09.2022, COM (2022) 496 final e della recente proposta per una direttiva del Parlamento europeo e del Consiglio sulla responsabilità per prodotti difettosi. Brussels, 28.9.2022 COM (2022) 495 final 2022/0302 (COD).

[14] Il riferimento è a European Commission, Directorate-General for Communications Networks, Content and Technology, European enterprise survey on the use of technology based on artificial intelligence: final report, Pubblication Office, 2020.

[15] Menzionate in nota 13.

[16] L’art. 3, rubricato “Livello di armonizzazione” recita: “Salvo altrimenti disposto dalla presente direttiva, gli Stati membri non mantengono o adottano nel loro diritto nazionale disposizioni divergenti da quelle stabilite dalla presente direttiva, incluse disposizioni più o meno rigorose per garantire al consumatore un livello di tutela diverso”.

[17] Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (l. sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, 21.04.2021, COM (2021) 206 final.

[18] Artificial intelligence: Commission kicks off work on marrying cutting-edge technology and ethical standards, in https://single-market-economy.ec.europa.eu/news/artificial-intelligence-commission-kicks-work-marrying-cutting-edge-technology-and-ethical-standards-2018-03-09_en; Artificial intelligence: Commission outlines a European approach to boost investment and set ethical guidelines, in https://ec.europa.eu/commission/presscorner/detail/en/IP_18_3362; Member States and Commission to work together to boost artificial intelligence “made in Europe”, in https://ec.europa.eu/commission/presscorner/detail/en/IP_18_6689.

[19] EU Member States sign up to cooperate on Artificial intelligence, in https://digital-strategy.ec.europa.eu/en/news/eu-member-states-sign-cooperate-artificial-intelligence.

[20] European Commission Staff Working Document: Liability for emerging digital technologies, in https://digital-strategy.ec.europa.eu/en/library/european-commission-staff-working-document-liability-emerging-digital-technologies.

[21] Communication Artificial intelligence for Europe, in https://digital-strategy.ec.europa.eu/en/library/communication-artificial-intelligence-europe; Communication from the Commission to the European Parliament, the European Council, the Council, the European economic and social committee and the committee of the regions – Coordinated plan on AI

[22] The European AI Alliance, in https://digital-strategy.ec.europa.eu/en/policies/european-ai-alliance.

[23] Commission appoints expert group on AI and launches the European AI Alliance, in https://digital-strategy.
ec.europa.eu/en/news/commission-appoints-expert-group-ai-and-launches-european-ai-alliance.

[24] Annex to the Communication from the Commission to the European Parliament, the European Council, the Council, the European economic and social Committee and the committee of the region – Coordinated plan of Artificial Intelligence.

[25] Communication: Building Trust in Human Centric Artificial Intelligence, in https://digital-strategy.ec.
europa.eu/en/library/communication-building-trust-human-centric-artificial-intelligence.

[26] Ethics guidelines for trustworthy AI, in https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.

[27] Policy and investment recommendations for trustworthy Artificial Intelligence, in https://digital-strategy.ec.europa.
eu/en/library/policy-and-investment-recommendations-trustworthy-artificial-intelligence.

[28] The first European AI Alliance Assembly, in https://digital-strategy.ec.europa.eu/en/events/first-european-ai-alliance-assembly.

[29] Pilot Assessment List of the Ethics Guidelines for Trustworthy AI, in https://ec.europa.eu/futurium/en/ethics-guidelines-trustworthy-ai/pilot-assessment-list-ethics-guidelines-trustworthy-ai.html.

[30] White Paper on Artificial Intelligence: a European approach to excellence and trust, in https://commission.europa.eu/
document/d2ec4039-c5be-423a-81ef-b9e44e79825b_en.
Si segnala la rilevanza di tale documento, in quanto nel medesimo vengono poste le basi per il futuro quadro strategico dell’UE e si ipotizza un sistema di intelligenza artificiale antropocentrico. Su tali temi se segnala G. Finocchiaro, Intelligenza artificiale e responsabilità, cit., 713; V. Di Gregorio, Intelligenza artificiale e responsabilità civile: quale paradigma per le nuove tecnologie?, in Danno e responsabilità, 1, 2022, 51.

[31] Sectorial considerations for Trustworthy AI – taking AI’s context specificity into account, in https://futurium.ec.europa.eu/en/
european-ai-alliance/blog/sectorial-considerations-trustworthy-ai-taking-ais-context-specificity-account; Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment,
in https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment.

[32] White Paper on Artificial Intelligence: Public consultation towards a European approach for excellence and trust, in https://
digital-strategy.ec.europa.eu/en/library/white-paper-artificial-intelligence-public-consultation-towards-european-approach-excellence-and.

[33] Artificial Intelligence – ethical and legal requirements, in https://ec.europa.eu/info/law/better-regulation/have-your-say/
initiatives/12527-Artificial-intelligence-ethical-and-legal-requirements_en.

[34] European Parliament resolution of 20 October 2020, with recommendations to the Commission on a framework on ethical aspects of artificial intelligence, robotics and related technologies, in https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.html; European Parliament resolution of 20 October 2020 on Intellectual property rights for the development of artificial intelligence technologies, in https://www.europarl.europa.eu/doceo/document/TA-9-2020-0277_EN.html; European Parliament resolution of 20 October 2020with recommendations to the Commission on a civil liability regime for artificial intelligence, in https://
www.europarl.europa.eu/doceo/document/TA-9-2020-0276_EN.html.

[35] Second European AI Alliance Assembly, in https://digital-strategy.ec.europa.eu/en/events/second-european-ai-alliance-assembly.

[36] Impact Assessment of the Regulation on Artificial Intelligence, in https://digital-strategy.ec.europa.eu/en/library/impact-assessment-regulation-artificial-intelligence.

[37] Coordinated Plan on Artificial Intelligence 2021 Review, in https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review.

[38] Communication on Fostering a European approach to Artificial Intelligence, in https://digital-strategy.ec.europa.eu/
en/library/communication-fostering-european-approach-artificial-intelligence.

[39] European Parliament resolution of 19 May 2021 in artificial intelligence in education, culture and the audiovisual sector, in https://www.europarl.europa.eu/doceo/document/TA-9-2021-0238_EN.html.

[40] European Parliament resolution in criminal law and its use by the police and judicial authorities in criminal matters, in https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_EN.html.

[41] Proposal for a Regulation of the European Parliament and of the Council on general product safety, amending Regulation (EU) No. 1025/2012 on the European Parliament and of the Council, and repealing Council Directive 87/357/EEC and Directive 2001/95/EC of the European Parliament and of the Council, in https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%
3A52021PC0346&qid=1628522210573.

[42] Product Liability Directive – Adapting liability rules to the digital age, circular economy and global value chains, in https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Product-Liability-Directive-Adapting-liability-rules-to-the-digital-age-circular-economy-and-global-value-chains_en.

[43] High level conference on AI: from Ambition to Action, in https://digital-strategy.ec.europa.eu/en/events/high-level-conference-on-ai-from-ambition-to-action.

[44] Informal video conference of telecommunications ministers, 14 October 2021, in https://www.consilium.europa.eu/en/
meetings/tte/2021/10/14/.

[45] Artificial Intelligence: Presidency issues conclusions on ensuring respect for fundamental rights, in https://www.consilium.
europa.eu/en/press/press-releases/2020/10/21/artificial-intelligence-presidency-issues-conclusions-on-ensuring-respect-for-fun
damental-rights/.

[46] Consiglio dell’UE: Relazione sullo stato di avanzamento dell’AI Act, in https://data.consilium.europa.eu/doc/document/ST-13802-2021-REV-1/en/pdf.

[47] European Parliament resolution of 3 May 20222 on artificial intelligence in a digital age, in https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_EN.html.

[48] Artificial Intelligence: MEPs want the EU to be a global standard-setter, in https://www.europarl.europa.eu/news/en/press-room/20220429IPR28228/artificial-intelligence-meps-want-the-eu-to-be-a-global-standard-setter.

[49] V. sul punto e da ultimo il documento del Parlamento UE, MEPs Ready to Negotiate First-Ever Rules for Safe and Transparent AI, comunicato stampa del 14 giugno 2023, https://www.europerl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-firt-ever-rules-for-safe-and-transparent-ai.

[50] Si segnala la soluzione evolutiva proposta da L. Arnaudo e R. Pardolesi, la quale nel tener conto di una ipotetica progressiva maturità dei sistemi dotati di intelligenza artificiale li riconosce – a partire da una determinata soglia – come autonomi centri di imputazione, Ecce robot. Sulla responsabilità dei sistemi adulti di intelligenza artificiale, in Danno e Responsabilità, 4, 2023, 409 ss.

[51] Così G. Finocchiaro, La proposta di regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio, in Diritto dell’informazione e dell’informatica, 2, 2022, 303 ss. (in particolare v. 306).

[52] Pone in modo chiaro tale interrogativo M. Franzoni, La responsabilità civile fra sostenibilità e controllo delle attività umane, in Danno e responsabilità, 1, 2022, 5 ss. (in particolare 11).

[53] Ibidem, 305 ss.

[54] A titolo esemplificativo si pensi ad un rapporto contrattuale di lavoro.

[55] Sulla responsabilità contrattuale, connessa all’impiego dell’intelligenza artificiale, v. M. Bassini, L. Liguori, O. Pollicino, Sistemi di intelligenza artificiale, responsabilità e accountability. Verso nuovi paradigmi? in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, pp. 333 ss.; A. Massolo, Responsabilità civile e IA, ibidem, 373 ss.

[56] In tal senso v. U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione Europea, cit.

[57] Sul punto v. E. Palmerini, Robotica e diritto: suggestioni, intersezioni, sviluppi a margine di una ricerca europea, in Resp. civ. prev., 6, 2016, 1826 ss. Come posto in evidenza dall’autrice, la Dir. macchine 2006/42/CE e la Dir. 2001/95/CE sulla sicurezza generale dei prodotti, stabiliscono i requisiti da rispettare per la messa in commercio, prevedono la tipologia di informazioni da fornire ai consumatori e regolano l’apposizione del marchio CE (in particolare v. 1835). Le menzionate direttive sono ormai obsolete rispetto alle logiche e alla struttura dei nuovi prodotti intelligenti; pertanto, entrambe sono oggetto di revisione. Il 21 aprile 2021 è stato pubblicato il testo della proposta di regolamento del Parlamento europeo e del Consiglio sui prodotti macchina (COM (2021) 202 final), che il 18 aprile 2023 ha terminato l’iter di approvazione e andrà a breve a sostituire la direttiva Macchine 2006/42/CE. Le istituzioni europee si impegnano anche ad elaborare una nuova disciplina che modifichi e aggiorni la direttiva 2001/95/CE. Si v. sul punto la proposta di regolamento del Parlamento europeo e del Consiglio del 30 giugno 2021, relativo alla sicurezza generale dei prodotti che modifica il regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio e che abroga la Dir. 87/357/CEE del Consiglio e la Dir. 2001/95/CE del Parlamento europeo e del Consiglio (COM (2021) 346 final). Inoltre, in tale contesto assume un ruolo chiave la menzionata proposta di regolamento del Parlamento europeo e del Consiglio che «stabilisce regole armonizzate sul­l’intelligenza artificiale e modifica alcuni atti legislativi dell’Unione», 21 aprile 2021, (COM (2021) 206 final), elaborata nell’ambito della Strategia europea per l’intelligenza artificiale, che ne propone il primo quadro giuridico europeo, dettando regole armonizzate.

[58] Ai sensi dell’art. 2 della Direttiva e dell’art. 115, comma 1, Codice del Consumo, che definiscono il prodotto come «ogni bene mobile, anche se forma parte di un altro bene mobile o immobile».

[59] Vanno presi in considerazione l’art. 6 della Direttiva e l’art. 117 del Codice del Consumo, che qualificano un prodotto come difettoso «quando non offre la sicurezza che ci si può legittimamente attendere, tenuto conto delle circostanze».

[60] Sul punto v. L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, 4, 2018, 713 ss. e R. Montinaro, Responsabilità da prodotto difettoso e tecnologie digitali tra soft law e hard law, in Persona e mercato, 4, 2020, pp. 365 ss. Quest’ultimo autore si sofferma sull’obbligo di una rigorosa valutazione del rischio da parte del fornitore, la quale impone al medesimo la delimitazione degli obiettivi assegnati al sistema.

[61] Merito riconosciutole dalle istituzioni europee. In particolare, si v. il punto 8 della Risoluzione del Parlamento europeo del 20 ottobre 2020, recante raccomandazioni alla Commissione sul regime di responsabilità civile e intelligenza artificiale e la Relazione della Commissione al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo sulle implicazioni dell’intelli­gen­za artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità, 19 febbraio 2020.

[62] Sul tema v. anche U. Ruffolo, Responsabilità da produzione e gestione dell’a.i. self-learning, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Rapporti civilistici e intelligenze artificiali: attività e responsabilità, Napoli, 2020, p. 233 ss.; G. Capilli, I criteri di interpretazione della responsabilità, in G. Alpa (a cura di), Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pisa, 2020 (in particolare 471 ss.).

[63] Così U. Salanitro, Intelligenza artificiale e responsabilità, cit., 1253.

[64] La rilevanza della tematica nell’ordinamento italiano non verrà trattata in questa sede, intendendo qui evidenziare le criticità poste dalla copiosa documentazione e dalle novelle proposte. Tuttavia, va specificato che l’art. 2043 cod. civ. sembrerebbe assumere un rilievo centrale, quale regola generale, connotata dal carattere di atipicità. Tuttavia, come rilevato in dottrina, la sua struttura appare inappropriata sia per le difficoltà probatorie che il danneggiato dovrebbe affrontare nell’ipotesi di una sua applicazione, sia rispetto al profilo dell’individuazione dell’autore del danno (spesso difatti vi sono molteplici attori, la cui individuazione non rappresenta un’operazione semplice). In tal senso v. U. Salanitro, Intelligenza artificiale e responsabilità, cit., 1246 ss. (in particolare v. 1247); F. Naddeo, Intelligenza artificiale: profili di responsabilità, in Comparazione e diritto civile, 3, 2020, 1143 ss. (in particolare v. 1151); A. Amidei, Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo, in Giur.it, 2021, 88 ss. (in particolare v. p 96). Il problema relativo all’imputazione di responsabilità in forza del criterio della colpa ha portato la dottrina a focalizzarsi sulla figura del danneggiato e sulla relativa tutela, cercando di individuare i soggetti cui imputare la responsabilità, indipendentemente dalla sussistenza di un comportamento colposo e valutando la prossimità al rischio assunta da tali soggetti. Così D. Di Sabato, Strumenti riparatori e risarcitori, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Il trattamento algoritmico dei dati tra etica, diritto ed economia, Napoli, 2020, 338 ss. (in particolare v. 341). In particolare, sull’opportunità di vagliare lo strumento interpretativo, ponendo anche a confronto le responsabilità da intelligenza artificiale e quelle da intelligenza “naturale” v. U. Ruffolo, Intelligenza Artificiale e diritto – Intelligenza Artificiale, machine learning e responsabilità da algoritmo, in Giurisprudenza italiana, 7, 2019, 1657 ss.

[65] Il tema è sollevato da M. Franzoni, La responsabilità civile fra sostenibilità e controllo delle attività umane, cit., 11; Id., La responsabilità civile una lunga teoria ancora da scrivere, in Contratto e impresa, 4, 2021, 1103 ss. (in particolare v. 1121 ss.).

[66] Cfr. U. Ruffolo, Selfdriving car, auto driverless e responsabilità, in Intelligenza artificiale, cit., 39 ss.; Id., Le responsabilità da produzione e gestione di intelligenza artificiale self-learning, in U. Ruffolo (a cura di), XXVI lezioni di Diritto dell’Intelligenza Artificiale, Torino, 2021, 11 ss.; E. Al Mureden, Autonomous vehicles e responsabilità civile nel sistema statunitense, ivi, 176 ss.; U. Ruffolo ed E. Al Mureden, Autonomous vehicles e responsabilità civile nel nostro sistema e in quello statunitense, in Giurisprudenza italiana, 2019, 1657 ss.; M. Ratti, Riflessioni in materia di responsabilità civile, cit., 1174 ss.

[67] Interessante notare come nella proposta di direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale del 28 settembre 2022 ed particolare al terzo considerando si sottolinea come “il danneggiato che intenda ottenere un risarcimento per il danno subito è di norma tenuto, in base alle norme generali in materia di responsabilità per colpa degli Stati membri, a dimostrare che la persona potenzialmente tenuta a rispondere del danno ha commesso un’azione o omissione intenzionalmente lesiva o colposa (“colpa”) e che esiste un nesso di causalità tra colpa e danno. Tuttavia, quando l’IA si interpone tra l’azione o omissione di una persona e il danno, le specifiche caratteristiche di alcuni sistemi di IA, come l’opacità, il comportamento autonomo e la complessità, possono rendere eccessivamente difficile, se non impossibile, per il danneggiato soddisfare l’onere della prova. In particolare, può essere eccessivamente difficile dimostrare che un determinato input, di cui è responsabile la persona potenzialmente tenuta a rispondere del danno, ha provocato un determinato output del sistema di IA, che a sua volta ha causato il danno in questione”. Ciò pone in evidenza la complessità del fattore causale con riferimento ai sistemi di intelligenza artificiale; sul tema v. ELI, European Law Institute, in European Commission’s sPublic Consultation on Civil Liability Adapting Liability Rules to the Digital Age and Artificial Intelligence, 2022.

[68] È stato sottolineato da attenta dottrina come se da un lato in effetti risulti corretto allocare il costo connesso al rischio di incidenti in capo al soggetto impegnato a sviluppare e a mettere in commercio il prodotto rilevatosi dannoso, dall’altro ciò presenta diverse perplessità. Viene posto in rilievo – ad esempio – come in ambito domestico sia assente un solido regime di presunzione di responsabilità del produttore e proprio ciò renderebbe ardua la dimostrazione – da parte della vittima – del fatto che il danno è stato causato da un difetto del prodotto in questione. V. sul punto L. Arnaudo, R. Pardolesi, cit. (in particolare 412).

[69] Si consideri, sul punto, come la proposta di regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale del 21 aprile 2021 al suo art. 13 prescrive obblighi di trasparenza e fornitura di informazioni agli utenti. Si tratta, tuttavia ed a ben vedere, di informazioni rapportabili a delle comuni istruzioni di prodotto, piuttosto che dati idonei a rendere totalmente accessibile la conoscenza dell’algoritmo.

[70] È evidente la preoccupazione, sollevata anche dalla dottrina, circa i rischi connessi ad una totale inversione dell’onere della prova tra produttore ed utilizzatore che potrebbe comportare una stasi a livello di progresso tecnologico. Interessante è, sul punto, quanto evidenziato da B. Schütte, L. Majewski, K. Havu, Damages Liability for Harm Caused by Artificial Intelligence – EU Law in Flux legal studies research paper series, Paper No 69 26 ss., secondo i quali “A counterargument for alleviating the burden of proof is the risk of excessive or abusive litigation, as well as the possible outcome where claimants start addressing claims against all possible defendants who are then all using resources in litigation (whereas only one of them is the true cause of harm)”.

[71] È difatti noto – e sottolineato dalla dottrina – come alcuni sistemi dotati di intelligenza artificiale, proprio in ragione delle loro caratteristiche di opacità, autonomia e complessità intrinseca, rendono particolarmente difficoltoso l’assolvimento dell’onere della prova facente capo al danneggiato e ciò in particolare quando operano più sistemi dotati di intelligenza artificiale contemporaeamente. Sul punto v. A. Gesser, R. Maddox, A. Gressel, F. Colleluoi, T. Lookwood, M. Pizzi, The EU AI Liability Directive Will Change Artificial Intelligence Legal Risk, Columbia Law School, USA, 2022.

[72] La nozione qui utilizzata di colpa sembra rimandare a quella di mancanza di diligenza professionale; dunque il concetto di colpa e di mancanza di diligenza e di colpa vengono chiaramente a coincidere come indicato anche dalla giurisprudenza nazionale, Il riferimento è a Cass. civ., sez. III, 9 novembre 2006, n. 23918, secondo cui: «gli artt. 1176 e 2236 c.c. esprimono dunque l’unitario concetto secondo cui il grado di diligenza deve essere valutato con riguardo alla difficoltà della prestazione resa. La colpa è inosservanza della diligenza richiesta».

[73] In particolare, sul concetto di colpa in relazioni all’utilizzo dei sistemi di intelligenza artificiale v. diffusamente M. Buiten, A de Streel, M. Peiz, The law and economics of AI Liability, ELSEVIER, 2023. Si segnala, tra l’altro, la necessità che i sistemi basati sulla colpa assicurino incentivi ai fabbricanti e agli utilizzatoriche gli portino ad adottare misure volte a limitare i danni; sul punto – diffusamente – AA.VV. Adapting liability rules to the digital age and Artificial Intelligence, European Law Intitute (ELI) online, 2022.

[74] È stato osservato come l’alleggerimento dell’onere probatorio potrebbe condurre ad un eccessivo numero di richieste risarcitorie. Sul punto v. CiTiP Working Paper, KU Leuven Centre for IT, 2022; B. Schuttle, Damages liability for harm caused by Artificial Intelligence, Helsinki, 2021. Per un’analisi delle Proposte v. E. Bellisario, Il pacchetto europeo sulla responsabilità per danni da prodotti e da intelligenza artificiale. Prime riflessioni sulle proposte della Commissione, in Danno e Responsabilità, 2, 2023, 153 ss.

[75] In proposito, si vedano le riflessioni di A. Bertolini, Artificial intelligence does not exist! defying the technology– neutrality narrative in the regulation of civil liability for advanced technologies, in Eur. dir. priv., 2, 2022, 369 ss.; F. Caroccia, Ancora su responsabilità civile e uso delle intelligenze artificiali, in Contr. e impr., 2, 2022, 408 ss.; G. Di Rosa, Quali regole per i sistemi automatizzati intelligenti?, in Riv. dir. civ., 5, 2021, 823 ss.; U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione Europea, ivi, 6, 2020, 1246 ss.; A. Fusaro, Quale modello di responsabilità per la robotica avanzata? Riflessioni a margine del percorso europeo, in Nuova giur. civ. comm., 6, 2020, 1344 ss.

[76] Con riferimento all’iniziativa legislativa, v. Presse release, 28 september 2022, Brussels, New liability rules on products and AI to protect consumers and foster innovation.

[77] Così dispone l’art. 2 della proposta menzionata.

[78] Tra i molteplici aspetti si pensi all’ipotesi di concorso di colpa, alla definizione di causalità, alle diverse tipologie di danno etc.

[79] Così M. Gambini, Responsabilità civile e controlli del trattamento algoritmico, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Il trattamento algoritmico dei dati tra etica, diritto ed economia, Napoli, 2020, 314 ss. (in particolare v. 333).

[80] Problematiche poste in evidenza da G. Capilli, I problemi di interpretazione della responsabilità, in G. Alpa (a cura di), Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, Pisa, 2020, 471 ss. (in particolare v. 477).

[81] Il riferimento è al noto Regolamento europeo in materia di trattamento dei dati personali, Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la Dir. 95/46/CE.

[82] Su tali considerazioni v. D. Di Sabato, Strumenti riparatori e risarcitori, cit. (in particolare v. 343); G. Comandè, Intelligenza artificiale e responsabilità tra liability e accountability: il carattere trasformativo dell’AI e il problema della responsabilità, in Analisi Giuridica dell’Economia, 1, 2019, 175 ss. (in particolare v. 185).

[83] Parere del Comitato economico e sociale europeo su L’intelligenza artificiale. Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società, (punto 3.16), accessibile su: https://eur-lex.
europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52016IE5369&from=NL.

[84] Per considerazioni approfondite su un’IA affidabile che sia rispettosa dei principi etici nonché delle normative vigenti v. il parere del Gruppo di esperti sull’intelligenza artificiale, Orientamenti etici per un’IA affidabile, accessibile al link: https://promositalia.
camcom.it/kdocs/1984514/ethicsguidelinesfortrustworthyai-itpdf-1.pdf.

[85] Così il considerando 13.

[86] Così il considerando 14.

[87] Per approfondimenti sul concetto di black box v. G. Lo Sapio, La black box: l’esplicabilità delel scelte algoritmiche quale garanzia di buona amministrazione, in I Federalismi.it, 2021.

[88] Così prevede l’art. 3 della proposta, rubricato «Divulgazione degli elementi di prova».

[89] Così P. Serrai d’Aquini, La responsabilità civile per l’uso di sistemi di intelligenza artificiale nella Risoluzione del Parlamento europeo 20 ottobre 2020: Raccomandazioni alla Commissione sul regime di responsabilità civile e intelligenza artificiale, in www.giustiziainsieme.it, 18 novembre 2021.

[90] Come suggerito da G. Finocchiaro, Intelligenza artificiale, cit., 1676.

[91] Su profili inerenti i sistemi di intelligenza artificiale ad alto rischio v. G. Marchianò, Proposta di regolamento della Commissione europea del 21 aprile 2021 sull’intelligenza artificiale con particolare riferimento alle AI ad alto rischio, in Riv. Giur. Ambientediritto.it, 22.

[92] Come sottolineato da autorevole dottrina il provvedimento presenta diverse criticità, tra le quali emergono proprio l’incertezza nella classificazione dei sistemi intelligenti e le rigidità delle definizioni fornite. In tal senso G. Finocchiaro, La proposta di regolamento sull’intelligenza artificiale, cit., (in particolare v. 313).

[93] Si vedano per approfondimenti sul punto G. Morano, Robotizzazione, intelligenza artificiale e P.A., in www.neldiritto.it. Cfr., inoltre, A. Fusaro, Attività pericolose e dintorni, in Riv. dir. civ., 2013, 1337 ss.; M. TOPI, Attività pericolose atipiche ex art. 2050 c.c., in Danno resp., 2, 2016, 155 ss., nota a Cass. civ., 29 luglio 2015, n. 16052.

[94] Si veda sul punto, ad esempio C. Leanza Intelligenza artificiale e diritto: ipotesi di responsabilità civile del terzo millennio in Responsabilità Civile e Previdenza, 2021, pag. 1011 ss., secondo il quale: “attualmente, pertanto, non vi è ragione per escludere dal novero delle «attività pericolose», per come definite dall’art. 2050 cod. civ., l’impiego di robot in attività relazionali con esseri umani. Il ricorso a tale forma di responsabilità anche se non specificamente modulata sulla figura dei robot, oltre ad essere rispondente alla ratio della norma, costituirebbe un valido incentivo ad elidere quanto più possibile quella pericolosità intrinseca nelle forme di intelligenza artificiale, inducendo il produttore a destinare risorse alle misure idonee a minimizzarla, e dunque ad affrontare i correlati oneri preventivi, per sottrarsi ai costi risarcitori successivi che la responsabilità aggravata per esercizio di attività pericolose, altrimenti, imporrebbe qualora non venissero approntate”. Sul tema v. altresì M. Scialdone, Il diritto dei robot: la regolamentazione giuridica dei comportamenti non umani, in Aa. Vv., La rete e il fattore C: Cultura, Complessità, Collaborazione, in www.dimt.it, 2016.

[95] La giurisprudenza ha da tempo chiarito come “la nozione di attività pericolosa, ai sensi e per gli effetti dell’art. 2050 c.c., non deve essere limitata alle attività tipiche, già qualificate come tali da una norma di legge, ma deve essere estesa a tutte quelle attività che, per la loro stessa natura o per le caratteristiche dei mezzi adoperati, comportino una rilevante possibilità del verificarsi di un danno, dovendosi, di conseguenza accertare in concreto il requisito della pericolosità con valutazione svolta caso per caso, tenendo presente che anche un’attività per natura non pericolosa può diventarlo in ragione delle modalità con cui viene esercitata o dei mezzi impiegati per espletarla. L’indagine fattuale deve essere svolta seguendo il criterio della prognosi postuma, in base alle circostanze esistenti al momento dell’esercizio dell’attività” (Cass. Civ. sez. III, 19 luglio 2018, n. 19180).

[96] In tal senso M. Costanza, L’intelligenza artificiale e gli stilemi della responsabilità civile, in Giur. it, 7, 2019, 1688.

[97] In questo senso E. Colletti, Intelligenza artificiale e attività sanitaria. Profili giuridici della robotica in medica in Rivista di Diritto dell’Economia, dei Trasporti e dell’Ambiente, Vol. XIX, 2021, 201 ss.; nuovamente M. Costanza, L’Intelligenza Artificiale e gli stilemi della responsabilità civile, cit.

[98] Sull’evoluzione dottrinale e giurisprudenziale in materia di danno da cose in custodia – che in tale sede non è possibile ripercorrere – v. F. Patti, Danno cagionato da cose in custodia, in Navarretta (a cura di), Codice della responsabilità civile, Milano, 2021, 1306 ss.

[99] In tal senso C. Scognamiglio, Responsabilità civile ed intelligenza artificiale: quali soluzioni per quali problemi?, in Responsabilità civile e previdenza, 4, 2023, 1073 ss., in particolare 1087. Per una posizione in parte diversa, v. U. Ruffolo, Intelligenza Artificiale, machine learning e responsabilità da algoritmo, cit., 1700, il quale rileva che «le responsabilità sia del produttore di un bene che la incorpori, sia (ove non coincidente) dell’autore dell’algoritmo che conferisce alla macchina la capacità di apprendere, sembrano [...] regolabili invocando la disciplina in materia di danno tanto da prodotto che da attività pericolosa».