Jus CivileISSN 2421-2563
G. Giappichelli Editore

Il risarcimento dei danni da intelligenza artificiale nello spettro della responsabilità "vicaria" (di Michael W. Monterossi, Assegnista di ricerca in Diritto privato – Università degli Studi di Torino)


Il contributo si propone di offrire una ricostruzione in chiave critica dell’approccio europeo alla responsabilità per i danni derivanti da sistemi di intelligenza artificiale (IA), con particolare riguardo alla nuova Direttiva sulla responsabilità per danno da prodotti difettosi, ormai in via di definizione, e alla Proposta di Direttiva sulla responsabilità da IA, le quali – stando all’originaria visione della Commissione europea – dovrebbero completare un sistema di regole ex ante, al cui vertice si pone il Regolamento noto come Legge sull’IA. Nella prima parte, il lavoro offre un’analisi dei presupposti concettuali e delle principali regole operazionali che sorreggono i progetti normativi in tema di responsabilità da IA, per poi, sulla scorta dei risultati di tale analisi, evidenzia le criticità che esibisce il sistema di responsabilità congegnato dall’Unione europea, specie sotto il profilo del rischio di frammentazione del quadro normativo e della difficile fruibilità, in ragione della loro complessità tecnica, delle soluzioni ideate dal legislatore per facilitare l’onere probatorio delle vittime. Nella seconda parte il lavoro sviluppa un’ipotesi ricostruttiva formulata sul modello della responsabilità “vicaria”. In particolare, si osserva che, ove oggetto di un’opportuna reinterpretazione in chiave evolutiva, la regola di responsabilità “vicaria” non solo offre un valido modello di base su cui elaborare il completamento del sistema di regole divisato dal legislatore europeo, ma può altresì rappresentare una base normativa potenzialmente idonea a fondare un addebito di responsabilità entro i confini nazionali.

Compensation for damages from artificial intelligence in the spectrum of "vicarious" liability

The work aims to offer a critical reconstruction of the European Union’s approach to liability for damage arising from artificial intelligence (AI) systems, with particular regard to the new Product Liability Directive, at present being finalized, and the Proposed AI Liability Directive, which – according to the European Commission's original vision – should complete a system of ex ante rules, at the apex of which is the Regulation known as the AI Act. In the first part, the work offers an analysis of the conceptual assumptions and main operational rules that support the regulatory projects on the issue of IA liability, and then, on the basis of the results of the analysis, highlights the critical aspects which affect the liability system devised by the European Union, especially in terms of the risk of fragmentation of the regulatory framework and the difficulties, due to their technical complexity, in employing the solutions envisaged by the legislator to ease the burden of proof on the part of the victims. In the second part, the work develops a reconstructive hypothesis based on the model of “vicarious” liability. In particular, it is observed that, when subject to an appropriate reinterpretation in an evolutionary key, the “vicarious” liability rule not only offers a valid basic model on which to elaborate the completion of the system of rules forseen by the European legislator, but can also represent a normative basis which is potentially suitable for founding a charge of liability within national borders.

SOMMARIO:

1. Introduzione. - 2. Il modello europeo di responsabilità da IA e il vincolo antropocentrico. - 3. Il pacchetto europeo in tema di responsabilità per danni associati a sistemi di IA. a) La Proposta di (nuova) Diretti-va sulla responsabilità per danno da prodotti difettosi. – b) La Proposta di Direttiva sulla responsabilità da IA. - 4. Prime riflessioni critiche sul pacchetto europeo in tema di responsabilità da IA. - 5. La (prospettata) responsabilità oggettiva dell’operatore per danni cagionati da sistemi di IA ad alto rischio nella Proposta di Regolamento del Parlamento europeo. - 6. La responsabilità "vicaria" del deployer: un’ipo¬tesi ricostruttiva. Sistema di imputazione e principi giustificativi dell'obbligazione risarcitoria per il fatto dell'ausiliario. - 7. La responsabilità del deployer nella prospettiva dell’art. 2049 c.c. - 8. Il fatto illecito dell’ausiliario nello spettro decisionale del sistema di IA. - 9. Dalla «non conformità» dell’azione umana alla «non conformità» della decisione algoritmica. - 10. Lo statuto giuridico dei sistemi di IA nella prospettiva della responsabilità "vicaria". - 11. La redistribuzione dei costi del danno: natura - NOTE


1. Introduzione.

La questione della responsabilità extracontrattuale per i danni associati ai c.d. sistemi di intelligenza artificiale (IA) continua a sollecitare l’interesse di una numerosa schiera di giuristi[1], anche in ragione dei continui impulsi che, sul piano istituzionale, derivano dall’Unione europea. La premessa che fa da sfondo agli studi – dottrinali così come istituzionali – è ormai ben definita e pressoché indiscussa: le attuali norme di responsabilità sono inidonee a garantire una tutela efficace nell’ipotesi di danni connessi all’uso di prodotti e servizi algoritmici, specie ove basati sulle metodologie progettuali e funzionali sviluppate nel campo dell’intelligenza artificiale[2]. Il problema risulta particolarmente avvertito in relazione a quella speciale classe di algoritmi che, operando secondo processi decisionali non univoci, fondati su approcci di apprendimento automatico (o machine learning) [3], sono in grado di generare output – quali previsioni, raccomandazioni e decisioni – non del tutto preconoscibili, determinabili o spiegabili, per i creatori dei sistemi e/o per gli operatori che li utilizzano. In questi casi, una serie di fattori tecnici dei sistemi di IA – principalmente: la complessità tecnica, la (parziale) autonomia, la dipendenza dai dati e l’opacità – può rendere eccessivamente difficoltosa o onerosa l’attivazione delle norme in tema di responsabilità, fino al punto di metterle completamente fuori gioco. Al fine di garantire ai consociati una tutela risarcitoria efficace e ad ampio raggio all’interno della costituenda «società algoritmica», l’Unione europea ha intrapreso un percorso normativo di riforma, esitato in una serie di proposte legislative oggi in via di definizione. Il piano europeo contempla, allo stato attuale, due progetti di Direttive complementari dedicate, l’una, alla «modernizzazione» della normativa in tema di responsabilità da prodotto difettoso (Direttiva sulla responsabilità per danno da prodotti difettosi) e, l’altra, all’armonizzazione «mirata» di taluni aspetti delle norme nazionali di responsabilità per colpa (Direttiva sulla responsabilità da IA) [4], le quali completano un sistema di regole ex ante, al cui vertice si pone il Regolamento noto come Legge [continua ..]


2. Il modello europeo di responsabilità da IA e il vincolo antropocentrico.

Prima di esaminare più nel dettaglio il contenuto delle proposte menzionate, conviene effettuare alcune preliminari considerazioni in ordine agli elementi qualificanti il sistema europeo di regolazione dell’IA. Queste saranno utili, oltre che a meglio comprendere talune scelte normative, a impostare utilmente le riflessioni critiche e le proposte ricostruttive che seguiranno. Il pacchetto europeo in materia di responsabilità si innesta, integrandolo, all’interno di una più ampia strategia di politica del diritto sull’IA, improntata alla promozione – entro e fuori i confini europei (c.d. effetto Bruxelles) – di un’intelligenza artificiale «antropocentrica» e «affidabile» [6]. Fin dai primi documenti di policy, è emersa l’intenzione dell’UE di definire un modello normativo che consentisse di favorire lo sviluppo e lo sfruttamento dell’innovazione tecnologica, nel pieno rispetto dei diritti fondamentali degli individui e dei valori etico-giuridici che connotano la società europea [7]: solo conservando la centralità dell’essere umano – detentore di uno «status morale unico e inalienabile», rispetto al quale l’IA è mero «strumento posto al [suo] servizio» e in funzione del miglioramento del suo benessere – potrà crearsi la fiducia necessaria per lo sviluppo e la diffusione della nuova tecnologia [8]. Fuor di retorica, l’impostazione human-centric segna, spiegandola, l’opzione per un paradigma normativo di tipo regolamentare, votato alla gestione e minimizzazione (prima ma anche dopo l’immissione in mercato) dei rischi per la sicurezza e per i diritti fondamentali degli individui connessi all’utilizzo di sistemi di IA. D’altra parte, né la selezione, tramite mercato, dei prodotti e servizi algoritmici in concorrenza tra loro, né l’approntamento di rigide regole di responsabilità oggettiva sarebbero in grado, per sé sole, di garantire incentivi sufficienti ad eliminare o minimizzare i rischi associati alle applicazioni di IA, specie considerando gli effetti pregiudizievoli “occulti”, perché non facilmente identificabili dalle loro vittime ovvero “sistemici”, perché capaci di diffondersi rapidamente e capillarmente nella società, che possono derivare qualora [continua ..]


3. Il pacchetto europeo in tema di responsabilità per danni associati a sistemi di IA. a) La Proposta di (nuova) Diretti-va sulla responsabilità per danno da prodotti difettosi. – b) La Proposta di Direttiva sulla responsabilità da IA.

a) – Al fine di dare corso al rilievo formulato, occorre dapprima volgere l’attenzione ai due progetti di direttiva che, in concorso tra loro[25], sono chiamati a costituire un sistema di responsabilità idoneo ad assicurare l’equivalenza della protezione, nel rispetto del vincolo antropocentrico. Il primo, ormai prossimo alla definitiva adozione, mira a modernizzare, sostituendola, la Direttiva 85/374/CEE in tema di prodotto difettoso. Com’è noto, la normativa contempla una regola di responsabilità più rigorosa di quella fondata sulla colpa, ispirata alla logica del rischio d’impresa [26], in base alla quale il produttore risponde dei danni – a persone o cose – derivanti dall’utilizzo di un prodotto da parte dei consumatori, laddove sia possibile dimostrare che l’accadimento dannoso sia causalmente riconducibile a un difetto dello stesso. La nuova Direttiva, pur riproducendo la struttura e la logica di fondo della precedente disciplina, introduce rilevanti modifiche nel tentativo di farla aderire a un contesto sociale profondamente mutato in ragione della proliferazione di prodotti ad alto contenuto tecnologico, la cui costante interazione con il flusso di dati provenienti dalla rete virtuale ne moltiplica, oltre alle funzionalità, anche le possibili fonti dei malfunzionamenti all’origine dei danni. In via di estrema sintesi, l’adeguamento operato dalla nuova normativa – destinata ad avere un campo di applicazione ben più ampio di quello segnato dai danni cagionati dai sistemi di IA– muove lungo tre principali linee direttrici [27], ciascuna delle quali intercetta un nodo strutturale fondamentale del modello di responsabilità in esame. La prima concerne la nozione di «prodotto» rilevante ai fini della normativa, che viene estesa agli elementi che ne determinano la natura digitale. Essa comprenderà, in particolare: (i) il software, sia quello integrato in un dispositivo, sia quello utilizzato tramite tecnologie cloud (ad esclusione del codice sorgente e del software libero); (ii) i file per la fabbricazione digitale, che contengono le istruzioni necessarie per produrre beni materiali attraverso il controllo automatizzato di macchine o strumenti; (iii) i servizi digitali correlati, integrati o interconnessi al sistema, quali la fornitura continuativa di dati, necessari per il funzionamento di un [continua ..]


4. Prime riflessioni critiche sul pacchetto europeo in tema di responsabilità da IA.

Lo sforzo profuso dalle istituzioni europee nell’elaborazione di un quadro normativo più aderente al nuovo contesto tecnologico non può che essere accolto con favore, specie laddove le nuove disposizioni siano in grado di incentivare la progettazione di sistemi di IA rispondenti ad elevati standard di sicurezza e trasparenza e il mantenimento degli stessi lungo tutto il loro ciclo di vita. Le iniziative legislative che ne sono scaturite, tuttavia, lasciano non poche perplessità, tanto sul fronte delle premesse teoriche che le sorreggono, tanto, e di conseguenza, sul fronte delle regole operazionali che a tali premesse dovrebbero dare concreta attuazione. Se la linea di riammodernamento della responsabilità da prodotto difettoso appare, in termini generali, condivisibile, a meritare ulteriori riflessioni sono le scelte normative opzionate con riferimento agli altri partecipanti alla catena di produzione degli output dei sistemi di IA. A sorprendere, in particolare, è la scelta di eleggere la colpa quale criterio generale di imputazione dei danni scaturiti dall’uso di sistemi di IA (al di fuori, va da sé, delle ipotesi in cui il sistema si presenti difettoso). La scelta appare criticabile anzitutto per l’assunto sistematico su cui riposa: quello secondo cui la colpa conserverebbe una centralità, negli ordinamenti degli stati dell’Unione, tale da farne assumere un ruolo di preminenza su tutti gli altri criteri di imputazione. Già un’analisi condotta ad ampio raggio e in chiave comparata della giurisprudenza, oltre che dell’imponente opera dottrinale sul tema, consentirebbe di evidenziare, se non il carattere recessivo della colpa, quantomeno la costante espansione dell’area della responsabilità oggettiva e della responsabilità per colpa presunta [44]. Ma il rapporto di gerarchia, quand’anche ancora esistente, sarebbe in ogni caso ribaltato se il campo di analisi fosse ristretto alle sole ipotesi di danni cagionati da quelle «entità strumentali» – siano esse cose inanimate o persone umane – della cui mediazione il consociato abbia scelto di servirsi per “operare” nel contesto sociale ed economico, pur nella consapevolezza di non poter esercitare, sugli “atti” di tali cose o sulle azioni di tali persone, un pieno controllo materiale [45]; e/o alle ipotesi lesive di origine [continua ..]


5. La (prospettata) responsabilità oggettiva dell’operatore per danni cagionati da sistemi di IA ad alto rischio nella Proposta di Regolamento del Parlamento europeo.

La prospettiva di introdurre una responsabilità speciale di tipo oggettivo non è stata del tutto scartata dalle istituzioni dell’UE. La stessa Proposta di direttiva sull’IA prevede un meccanismo di revisione per valutare, a distanza di 5 anni dal recepimento della stessa, l’efficacia delle regole fissate dagli artt. 3 e 4 e, se del caso, l’introduzione di uno speciale regime armonizzato di responsabilità oggettiva per i sistemi di IA ad alto rischio in capo agli operatori (eventualmente abbinata a un’assicurazione obbligatoria)[50]. A tal fine, la Commissione fa esplicito richiamo alla Proposta di Regolamento, formulata un paio di anni prima, con la quale il Parlamento europeo aveva caldeggiato l’introduzione (accanto alla responsabilità da prodotto difettoso) di uno specifico regime di responsabilità in capo all’operatore[51]. Occorre subito precisare che la nozione di operatore proposta dal Parlamento in quella sede era più ampia di quella di “deployer” che lo stesso Parlamento ha accolto nella Legge sull’IA (allora non ancora elaborata): con tale formula si identificava sia la persona che in primis decide in merito all’utilizzo del sistema di IA, esercitando un certo grado di controllo su un rischio connesso alla sua operatività e funzionamento e che «beneficia del suo funzionamento» (c.d. operatore front-end) [52]; sia la persona che, su base continuativa, definisce le caratteristiche della tecnologia e fornisce i dati e il servizio di supporto essenziali e pertanto esercita anche un elevato grado di controllo su un rischio connesso all’operatività e al funzionamento del sistema di IA (c.d. operatore back-end). In buona sostanza, essa avrebbe dovuto armonizzare il regime di responsabilità applicabile a coloro che si avvalgano di un sistema di IA (indistintamente se per scopo personale ovvero professionale), nonché ai fornitori di servizi digitali (salvo, in caso di difetto, quelli soggetti alla responsabilità del produttore la cui Proposta è, in ogni caso, intervenuta successivamente). La responsabilità dell’operatore, nel Progetto del Parlamento, avrebbe dovuto assumere una configurazione mista [53]: un regime di responsabilità per colpa per tutti i sistemi, ad eccezione di quelli «ad alto rischio» [54]; e un regime di [continua ..]


6. La responsabilità "vicaria" del deployer: un’ipo¬tesi ricostruttiva. Sistema di imputazione e principi giustificativi dell'obbligazione risarcitoria per il fatto dell'ausiliario.

Le disfunzioni prospettate nel pacchetto di proposte elaborato a livello eurounitario sembrano trovare radice in un equivoco alimentato, sul versante della responsabilità, dalla premessa antropocentrica che fa da sfondo all’approccio di regolazione adottato in materia. Si è osservato a suo tempo che detta premessa – tesa a mantenere la tutela dell’essere umano al centro della regolazione – si riflette, tra le altre, nel rifiuto di qualsivoglia caratterizzazione “umana” dell’IA, a partire da una sua soggettivizzazione. Ciò ha indotto le istituzioni a elaborare le proposte legislative in materia muovendo dall’implicita e contraria associazione, vincolante per la struttura delle fattispecie di responsabilità, tra i sistemi di IA – rectius, le decisioni o le azioni ad essi riferibili – e le cose inerti o al più seagenti. Tecnicamente, l’output del sistema di IA risulta ridotto ora a mero intermezzo causale di una sequenza eziologica che deve muovere da un’azione (o omissione) umana, così approssimandola a una qualsiasi cosa posta sotto la piena direzione di che ne fa uso o la controlla (così, nella Proposta di direttiva sull’IA); ora a mera espressione di un risultato puramente accidentale, come fosse scaturita da una cosa (anziché da un’azione/decisione frutto di un complesso processo) la quale, una volta sottrattasi al controllo del suo operatore, scarica la propria energia distruttiva in modo imprevedibile nei confronti della malcapitata vittima (così nella Proposta di Regolamento del Parlamento). Questo accostamento, che di per sé offre il fianco a diverse critiche di metodo [58] oltre che di merito [59], rischia di produrre esiti insoddisfacenti: anzitutto, poiché determina una frammentazione della vicenda lesiva in tante possibili matrici causali quanti sono i soggetti potenzialmente capaci di interferire con il suo output, impedendo, giocoforza, l’approntamento di una soluzione più organica ed efficace a tutela della vittima; vi è poi che essa induce a obliterare la complessità del processo di formazione che sta dietro quell’output, così come cancellate risultano le differenze che, sul piano della sua aderenza o meno all’ordinamento, possono connotare la singola decisione assunta dal sistema di IA all’interno della vicenda [continua ..]


7. La responsabilità del deployer nella prospettiva dell’art. 2049 c.c.

Sulla scorta di questi preliminari rilievi è possibile osservare che tanto l’esigenza di policy, che sta dietro il funzionamento dell’art. 2049 c.c., tanto il dato tecnico, che presiede alla struttura della norma, offrono significativi argomenti nel senso di provare ad adeguare il sistema risarcitorio in relazione al danno da IA lavorando sulla regola di responsabilità “vicaria”, nel presupposto che il ricorso all’assistenza di una macchina autonoma e ad autoapprendimento possa essere assimilato all’impiego di un ausiliario umano, laddove tale assistenza comporti un danno a terzi[78]. Sotto il primo profilo, l’aderenza è flagrante: il problema emerge in ragione del moltiplicarsi dei pericoli che derivano dalla crescente propensione da parte dei consociati di delegare alle azioni di altri – un tempo uomini e donne, oggi sistemi di IA – una serie di attività e incombenze, al fine di trarne un qualche tipo di utilità [79]. Per quanto diverso possa essere il loro contenuto, in entrambi i casi le “incombenze” sono svolte nell’interesse di un’altra persona ed entro i vincoli imposti dalle “mansioni” assegnate e dalle direttive impartite [80]; così come, nell’uno e nell’altro caso, il concreto espletamento delle attività ad essi affidate presuppone una capacità di azione e decisione in certa misura indipendente e autonoma, poiché implicante l’adozione di scelte in contesti di incertezza [81]. Peraltro, la consonanza sul piano della fattualità socioeconomica è destinata a incrementare ove si osservi che, considerati gli elevati costi (almeno nel breve e medio-periodo) dei sistemi autonomi e più sofisticati, questi saranno più spesso utilizzati nell’ambito di un’attività professionale o nell’esercizio di un’attività imprenditoriale. Una prospettiva, quella qui caldeggiata, che non sembra del tutto estranea alle istituzioni eurounitarie e, anzi, può trovare un utile aggancio proprio nella nozione di «deployer» adottata nella Legge sull’IA (e, di riflesso, estendibile alla proposta di Direttiva sull’IA): il quale è definito come il soggetto che – nel corso di un’attività professionale – utilizza un sistema di IA sotto la sua «autorità», [continua ..]


8. Il fatto illecito dell’ausiliario nello spettro decisionale del sistema di IA.

Rilevati i presupposti giuridici, oltre che storico-culturali, che suggeriscono di affrontare i problemi emersi nell’ambito che ci occupa lavorando a una regola di responsabilità dell’operatore-deployer (come definito dal legislatore europeo), ricalcata sul modello di quella “vicaria”, conviene ora aumentare il grado di analiticità dello studio, per focalizzare l’attenzione su alcuni degli elementi costitutivi della fattispecie, la cui riproduzione nel contesto della responsabilità da intelligenza artificiale potrebbe apparire problematica. Lo si farà, per ragioni di spazio, con più specifico riferimento all’ipotesi descritta dall’art. 2049 c.c., sebbene uno studio comparatistico consentirebbe di riprodurre argomenti simili anche rispetto alle regole vigenti in altri ordinamenti dell’Europa continentale, stante le già rilevate convergenti linee evolutive. Il primo e principale elemento di frizione nell’applicare, ai casi qui in esame, lo schema della responsabilità vicaria riguarda il requisito dell’illiceità del “fatto” del preposto [87]. Secondo l’opinione più comune, la qualifica del fatto in termini di illiceità è subordinata alla prova (quantomeno) della colpa in capo all’autore materiale del fatto. È appena il caso di rilevare che un tale criterio, per la sua tradizionale riferibilità all’essere umano [88], appare prima facie difficilmente riproducibile quando a compiere il fatto sia un sistema di IA. L’argomento assume però dimensioni meno ingombranti non appena si pongano a mente alcune preliminari considerazioni relative, da un canto, al ruolo giocato dalla colpa all’interno del modello dell’art. 2049 c.c. e, da un altro canto, all’accezione che la colpa assume nell’attuale sistema della responsabilità civile. Procediamo con ordine, muovendo dal primo profilo. È noto che, nell’economia della fattispecie delineata dall’art. 2049 c.c., l’illiceità del fatto assume un ruolo del tutto eccentrico, ben distinto da quello che essa riveste nella clausola di responsabilità contenuta nell’art. 2043 c.c.: nella prima ipotesi, a differenza della seconda, la natura colposa della condotta dell’autore materiale del fatto non costituisce fondamento giuridico, né tantomeno [continua ..]


9. Dalla «non conformità» dell’azione umana alla «non conformità» della decisione algoritmica.

Nel seguire una traiettoria ermeneutica come quella qui tracciata, lo studioso non può esimersi dall’aprire un ulteriore file all’interno della più ampia ricerca, incentrato sulla definizione dello standard oggettivo di azione/decisione algoritmica da assumere come parametro per valutarne l’eventuale difformità rispetto all’ordinamento. Si tratta, in estrema sintesi, di individuare ciò che è possibile e ragionevole “pretendere” da un sistema di IA in termini di misure di cautela volte a prevenire gli incidenti ai terzi. La dottrina straniera, in realtà, dibatte il problema già da alcuni anni [103]. Sebbene diverse siano le posizioni di partenza e le finalità ultime che fanno da sfondo alle ricerche sul tema, si registra una certa convergenza tra gli studiosi nel prefigurare, come opzioni teoriche polarizzanti, quella volta a caldeggiare l’applicazione degli stessi canoni pensati per valutare il comportamento umano; e quella propensa a configurare uno standard di condotta specifico in ragioni delle peculiarità che connotano i modelli di azione (e quindi le capacità di “ragionamento”) dei sistemi di IA [104]. La prima tesi, più legata allo stato attuale della tecnologia, spinge per uno standard di diligenza in ogni caso mai inferiore a quello degli esseri umani, nell’ottica di assicurare un incentivo alla produzione e messa in circolazione di sistemi di IA, la cui capacità lesiva non sia più elevata di quella della generalità dei consociati. La seconda tesi muove dal presupposto implicito per cui i sistemi di IA possiedono capacità di performance di regola superiori a – o quantomeno diverse da – quelle proprie degli esseri umani in analoghe situazioni e, su queste basi, sostengono l’esigenza di elaborare standard di diligenza specifici basati sulle caratteristiche del sistema di IA (melius, del modello decisionale adottato) sulla cui base valutare la difformità dell’output prodotto nella specifica situazione di incidente [105]. La soluzione, a parere di chi scrive, non può essere così netta e richiede una maggiore articolazione. Lo stato attuale dell’evoluzione tecnologica non contempla ancora sistemi di “intelligenza artificiale generale” [106], in grado di svolgere tutte, o quantomeno un rilevante numero, [continua ..]


10. Lo statuto giuridico dei sistemi di IA nella prospettiva della responsabilità "vicaria".

La ricostruzione teorica è ora sufficientemente matura per tornare al tema, accennato in apertura, dello statuto giuridico del sistema di IA. Lo si farà, però, solo di sbieco: è lo stesso iter logico del discorso che si è sin qui condotto a suggerire di depotenziare il carico polarizzante e “oppressivo” che un tale interrogativo esercita nel processo di regolazione delle vicende giuridiche che concernono i sistemi di IA. Da un lato, si è evidenziato che l’accostamento – altrettanto arbitrario da un punto di vista dogmatico – tra i sistemi di IA e il dominio delle cose non risponde a una precisa funzione giuridica, ma può anzi risultare deleterio nella misura in cui finisce per cancellare le specificità del sistema di azioni dell’IA, che si innestano sul piano della natura autonoma e complessa della decisione all’origine del danno. Dall’altro lato, si è osservato che, nel campo specifico che occupa la presente ricerca, l’ipotesi della capacità del sistema di IA viene in rilievo non già nell’ottica di istituire un nuovo soggetto su cui far gravare l’obbligazione risarcitoria (il che, come più volte detto, implicherebbe la dotazione di un patrimonio), bensì in quella di assicurare – nel contesto del­l’enucleazione di un più tradizionale criterio di imputazione oggettiva – una più accorta distribuzione dei rischi e delle cautele tra le parti coinvolte, senza perciò diminuire il livello di tutela della potenziale vittima. L’ipotesi soggettiva – esattamente come quella oggettiva – non dovrà dunque influenzare a monte la serie di ipotesi ricostruttive selezionabili dall’interprete, ma – al più – imporsi a valle laddove necessario per mettere in funzione, completandola, una determinata regola di responsabilità. Così reimpaginato il discorso, si comprende come la questione dello statuto giuridico non possa essere risolta in termini generali, ma debba esser fatta transitare per la specifica opzione teorica prescelta: nel caso di specie, pertanto, ci si dovrà chiedere se l’utilizzo del modello di responsabilità vicaria, di cui si mantenga in piedi l’elemento della “colpa”, imponga l’attribuzione di una soggettività o anche solo di una capacità in [continua ..]


11. La redistribuzione dei costi del danno: natura

Prima di completare l’ipotesi ricostruttiva, conviene ricapitolare brevemente. Si è sostenuto nelle precedenti pagine che, una volta bucato quello strato preconcettuale che puntualmente si forma allorché la lettura di un fenomeno giuridico sia preceduto dalla preventiva etichettatura categoriale delle entità che in esso vi prendono parte, sarà possibile constatare come vi siano serie e fondate ragioni per intessere, attorno al modello di responsabilità “vicaria”, la trama ricostruttiva di una regola risarcitoria nei confronti del deployer che, in ambito professionale, si avvalga di sistemi di IA ad alto contenuto tecnologico e, quindi, potenziale lesivo; regola, lo si ribadisce, da affiancare (quantomeno) a quella per danno da prodotto (algoritmico) difettoso. L’attivazione del congegno di imputazione che sovraintende la fattispecie, in questa sede studiata prevalentemente nella versione domestica dell’art. 2049 c.c., imporrebbe l’ascrizione del relativo addebito di responsabilità in capo al soggetto che si serve del sistema di IA, delegandogli determinati compiti da compiere nel suo interesse e a proprio beneficio. A un tale soggetto – di regola il più facile da individuare – sarebbe attribuita una responsabilità (oggettiva) da “rischio decisionale”, vale a dire, il rischio – molto diverso da quello “puramente causale” che assiste la regola di responsabilità per cosa in custodia – che le decisioni autonome dei sistemi di IA si rivelino sbagliate, nel senso di non conformi[115] a un determinato modello di riferimento ideale di tollerabilità sociale e che da tali decisioni sbagliate derivino danni per i terzi. La vittima potrebbe così avvalersi di un rimedio più efficace e meno costoso, in ragione della riduzione dell’oggetto dell’onere probatorio a suo carico al solo segmento causale che lega il danno alla decisione “illecita” del­l’algoritmo, eventualmente ulteriormente attenuabile tramite una presunzione relativa di «non conformità». Dal canto suo, il deployer non sarebbe fatto responsabile per qualunque danno scaturisca dal sistema di IA – in una guisa che lo approssimerebbe a un mero “guardiano” dell’IA (seconda l’ipotesi della cosa in custodia) – ma solo per quei pregiudizi che, sulla base di un [continua ..]


NOTE