La dottrina ha finora dedicato grande attenzione alla responsabilità extracontrattuale per danni cagionati da sistemi di intelligenza artificiale, trascurando però di indagare adeguatamente il tema, non meno importante, della responsabilità contrattuale conseguente all’inadempimento di obbligazioni implicanti l’impiego di sistemi intelligenti. All’approfondimento di questo profilo è pertanto destinato il presente contributo, che in particolare si propone di verificare come le caratteristiche di autonomia, imprevedibilità e opacità di questa tecnologia si ripercuotano sull’applicazione dei principi generali del nostro ordinamento in materia di responsabilità del debitore.
Scholars have so far devoted a great deal of attention to non-contractual liability for damage caused by artificial intelligence systems, while neglecting to properly investigate the no less important issue of contractual liability resulting from the breach of obligations involving intelligent devices. The essay is therefore devoted to an in-depth examination of this second subject matter. In particular, it proposes to verify how this technology’s autonomy, unpredictability, and opacity affect the application of the general principles of our legal system regarding the liability of debtors.
1. Introduzione. - 2. L’impossibilità di considerare i sistemi di IA ausiliari del debitore ai sensi dell’art. 1228 cod. civ. - 3. Il criterio di imputazione della responsabilità contrattuale e la distinzione tra obbligazioni di mezzi e di risultato. - 4. Le ricadute dell’utilizzo dell’IA sul regime della responsabilità del debitore. - 5. L’allocazione del rischio dell’inadempimento desumibile dal contenuto dell’accordo. - 6. La rilevanza della normativa europea in tema di IA. - 7. NOTE
Com’è stato autorevolmente osservato, da qualche anno a questa parte la riflessione dottrinale sulla responsabilità civile extracontrattuale per danni cagionati dai sistemi di intelligenza artificiale (d’ora in avanti, IA) ha assunto dimensioni di tale rilievo, sia sul piano quantitativo che sotto il profilo qualitativo, da suscitare l’impressione che ogni ulteriore trattazione dell’argomento non possa che risultare meramente compilativa [1]. Lo stesso non può dirsi, invece, della responsabilità contrattuale conseguente all’inadempimento di obbligazioni implicanti l’impiego di dispositivi di IA. Non che manchino settori, che per esempio vanno dalla sanità ai trasporti passando per i servizi finanziari e l’assistenza legale, nei quali vengono sempre più spesso conclusi contratti aventi per oggetto prestazioni da eseguirsi con sistemi di IA che possiedono caratteristiche, ormai note, suscettibili di mettere in crisi le categorie e le ricostruzioni giuridiche tradizionali, quali: la capacità di funzionare in maniera automatica e produrre risultati in tutto o in parte imprevedibili; il machine learning, ovverosia l’attitudine all’apprendimento automatico che consente alla macchina di raggiungere obiettivi assegnati dall’uomo senza che quest’ultimo abbia indicato come procedere al sistema, in grado di modificare il suo stesso funzionamento nel corso del tempo [2]; l’opacità, detta anche effetto black box, cioè la mancanza dell’indicazione delle ragioni delle proprie decisioni da parte dei sistemi di IA, le risposte dei quali rimangono pertanto prive di una spiegazione comprensibile per l’essere umano; il carattere aperto, o openness, che di nuovo evidenzia l’attitudine dei sistemi in parola a modificare le proprie caratteristiche una volta messi in funzione in conseguenza dell’interazione con altre macchine intelligenti e dell’intervento di aggiornamenti e upgrades [3]. Le interrelazioni tra il contratto e l’IA sono state, tuttavia, finora approfondite concentrando l’attenzione quasi esclusivamente sulle fattispecie nelle quali gli apparati tecnologici entrano in gioco nella fase della formazione del negozio e sollevano, pertanto, questioni relative ad aspetti quali la conclusione dell’accordo, l’imputazione dei suoi effetti, la definizione della causa e [continua ..]
Una soluzione alla questione appena sopra formulata è stata da taluno individuata nell’istituto della responsabilità indiretta e oggettiva del debitore per il fatto degli ausiliari contemplata dall’art. 1228 cod. civ. [1], ritenuto applicabile alle vicende che vedono coinvolti l’essere umano obbligato all’esecuzione della prestazione e lo strumento di adempimento costituito dal sistema di IA in via di interpretazione analogica [2]. A favore di questa soluzione si è anche ritenuto possibile osservare che, diversamente opinando, i dispositivi di IA potrebbero essere strumentalmente impiegati dal debitore al solo e deplorevole scopo di sottrarsi alla responsabilità vicaria alla quale egli andrebbe incontro impiegando esseri umani per svolgere le stesse mansioni, con il risultato di indebolire la fiducia della collettività nei confronti dell’IA [3] e disincentivare lo sviluppo e la diffusione di questa importantissima tecnologia [4]. Per quanto suggestiva, tale proposta ermeneutica non può essere tuttavia condivisa, in quanto presuppone di potere riconoscere ai sistemi di IA un attributo, quello della soggettività giuridica, che almeno allo stato attuale dell’evoluzione tecnologica – ma, secondo molti, anche a prescindere dagli ulteriori avanzamenti della stessa – è manifestamente irriferibile a macchine e dispositivi artificiali [5]. Anche volendo per ipotesi superare questo ostacolo, inoltre, rimarrebbe l’impossibilità di rimproverare ai sistemi di IA l’elemento soggettivo del dolo o della colpa richiesto dall’art. 1228 cod. civ. per la concretizzazione della responsabilità del debitore per i fatti dei suoi ausiliari [6]. Tali rilievi, che vengono del resto diffusamente richiamati anche per disconoscere l’operatività dell’art. 2049 cod. civ. nell’ambito dei danni di natura extracontrattuale cagionati da sistemi di IA [7], mettono invero in luce che soluzioni di questo tipo, in sé certo non prive di razionalità ed efficienza pratica, dovrebbero essere espressamente introdotte in via legislativa, perché le discipline degli Stati membri dell’Unione europea in materia di responsabilità vicaria sono chiaramente modellate sugli human auxiliaries e non appaiono suscettibili di essere applicate alle macchine intelligenti né in [continua ..]
Preso atto che il sistema di IA costituisce non l’ausiliario, ma lo «strumento tecnico utilizzato dal debitore nell’esecuzione della propria obbligazione» [1] e che nelle fattispecie in esame «non viene dunque in rilievo una responsabilità per fatto altrui bensì per fatto proprio ex art. 1218 cod. civ.» [2], l’attenzione si deve spostare sulla più generale questione attinente alla ricostruzione del criterio di imputazione della responsabilità contrattuale nell’ordinamento italiano [3]. Il tema è, come noto, alquanto complesso e nell’economia di questo lavoro non potrebbe certamente essere approfondito in modo compiuto. Ai nostri fini appare peraltro sufficiente rilevare che, seppure con talune eccezioni [4], nella dottrina più moderna incontra sempre maggiore consenso la tesi della variabilità del criterio di imputazione dell’inadempimento [5]. Quanti sostengono questa impostazione hanno, difatti, efficacemente messo in luce che affannarsi a discutere, in termini generali e facendo leva unicamente sull’esegesi delle disposizioni normative rilevanti in materia, se il debitore risponda dell’inadempimento sulla base del criterio soggettivo della colpevolezza piuttosto che in forza di un più severo parametro di carattere oggettivo [6] appare tanto inutile dal punto di vista strettamente teorico, quanto inappropriato sul piano pratico: inutile dal punto di vista teorico, perché le indicazioni normative rinvenibili nel sistema non consentono di giungere ad alcuna soluzione che possa reputarsi univoca, definitiva e universalmente valida [7]; inappropriato sul piano operativo, perché tradisce l’enorme varietà concreta delle caratteristiche specifiche dei rapporti obbligatori e finisce per appiattire una realtà multiforme, come tale naturalmente bisognosa di criteri di giudizio flessibili ed elastici, allo scopo di farla a tutti i costi rientrare in schemi di ragionamento rigidamente precostituiti dall’interprete [8]. È, pertanto, anche allo scopo di rispondere ad innegabili esigenze di razionalità e di efficienza economica che sembra senz’altro preferibile ricostruire diversamente il criterio di imputazione della responsabilità contrattuale tenendo conto del modo in cui si atteggiano gli elementi della fattispecie di volta in [continua ..]
Calate nell’ambito di nostro interesse, le concezioni in precedenza esposte porterebbero, secondo taluno, a riconoscere che «un elemento dirimente sarà valutare se l’agente artificiale di cui si avvale il debitore […] rientri o meno nei rischi della propria sfera organizzativa; se esso renda perciò l’obbligazione governabile o non governabile. […] In altre parole, […] occorre stabilire se l’attività compiuta dall’agente artificiale deve essere considerata tra i fattori estranei all’attività del debitore da cui dipende il soddisfacimento dell’interesse primario del creditore oppure tra i fattori, per così dire, interni» [1]. In quest’ultimo caso, l’obbligazione sarebbe di risultato e pertanto, «al cospetto sia di un errore di natura tecnica, sia di una disfunzione propria dell’automa, rientrando lo stesso nella sfera organizzativa del debitore, […] esso comporterà una diretta responsabilità di quest’ultimo, salvo l’ipotesi di caso fortuito e di forza maggiore» [2]. Nella prima ipotesi, invece, «il debitore avrebbe una maggiore possibilità di andare esente da responsabilità», pur dovendosi distinguere a seconda della «singola circostanza produttiva dell’evento lesivo»: qualora si tratti di «una disfunzione tecnica propria dello strumento», «il debitore […] dovrebbe essere ritenuto responsabile, poiché l’evento lesivo deriva da inefficienze interne alla propria sfera organizzativa»; laddove venga, invece, in rilievo «una valutazione e/o decisione tecnica opinabile» del sistema di IA, «il rischio dell’attività realizzata dalla macchina intelligente non sarà considerato un fattore interno all’attività del debitore, qualificando così la fattispecie come un’obbligazione non governabile» [3]. Pur avendo il merito di sottolineare l’importanza rivestita, nella materia che ci occupa, dalla distinzione tra obbligazioni di mezzi e di risultato quale criterio di articolazione del fondamento della responsabilità contrattuale, l’impostazione surriferita è formulata in termini troppo vaghi e generici per offrire una sistemazione soddisfacente delle questioni sulle quali ci stiamo [continua ..]
Come si è avuto modo di accennare, nella definizione del criterio di imputazione della responsabilità contrattuale occorre tenere in considerazione anche l’allocazione del rischio degli accadimenti atti a impedire la corretta esecuzione del rapporto obbligatorio concordata dalle parti e desumibile, in via esplicita o anche solo implicita, dalla ricostruzione del contenuto complessivo dei termini del negozio [1]. Applicato all’ambito di nostro interesse, quanto riferito conduce a riconoscere che nel giudizio sulla responsabilità per la mancata o difettosa esecuzione di una prestazione coinvolgente l’impiego di sistemi di IA occorrerà considerare anche la distribuzione del rischio dell’inadempimento concordata dalle parti, in particolare mediante lo scambio di informazioni avvenuto nel corso delle trattative: laddove il creditore non venga reso (in tutto o in parte) edotto dell’utilizzo di macchine intelligenti, né tale circostanza sia rilevabile dal contesto o dalle qualità soggettive del debitore [2], si giustificherà un irrigidimento del giudizio sulla responsabilità dell’obbligato per malfunzionamenti dei dispositivi in suo possesso del possibile verificarsi dei quali la controparte è stata lasciata all’oscuro; diversamente, quest’ultima sarà tenuta a condividere il rischio di tali accadimenti con il debitore nella misura che apparirà più adeguata e proporzionata rispetto alle circostanze concrete del caso di specie [3]. In questa prospettiva occorre pure chiedersi se la mancata comunicazione, da parte del debitore, dell’utilizzo di sistemi di IA, da reputarsi doverosa sulla scorta della teoria degli obblighi d’informazione precontrattuale, possa anche tradursi nell’attribuzione alla controparte della pretesa all’annullamento del contratto per dolo ai sensi dell’art. 1439 cod. civ. e/o al risarcimento del danno a titolo di responsabilità precontrattuale ex art. 1337 cod. civ. [4]. La questione non può essere però indagata a fondo nell’economia di questo contributo, in quanto implica la trattazione di due più vaste e assai complesse tematiche alle quali è in questa sede possibile solamente fare un accenno: innanzitutto, la rilevanza della reticenza (o c.d. dolo omissivo) nel contesto della ricostruzione della portata e [continua ..]
Sebbene non si occupino espressamente del tema di nostro interesse, possono, infine, contribuire alla ricostruzione della responsabilità contrattuale per l’inadempimento di obbligazioni implicanti l’impiego dell’IA anche due atti normativi provenienti dall’Unione europea. Il primo è costituito dall’ormai celebre e recentemente approvato Regolamento contenente regole armonizzate sull’intelligenza artificiale [1], conosciuto anche come AI Act, che come noto disciplina la materia suddividendo i sistemi di IA secondo quattro livelli di rischio: quelli che presentano un rischio inaccettabile sono di principio vietati; quelli che presentano un rischio elevato sono ammessi, ma sono soggetti a rigorosi obblighi e requisiti prima di poter essere immessi sul mercato e/o utilizzati; quelli che presentano un rischio limitato devono rispettare requisiti di trasparenza, che consentono agli utenti di essere consapevoli di interagire con un sistema di IA e di comprenderne le caratteristiche e le limitazioni; quelli che presentano un rischio minimo o nullo, infine, possono essere liberamente commerciati e utilizzati senza doversi conformare a particolari prescrizioni normative. Per quanto l’AI Act non disciplini le conseguenze della violazione degli obblighi previsti al suo interno, appare infatti chiaro che l’inosservanza dei medesimi è inevitabilmente destinata a ripercuotersi nel giudizio di responsabilità civile, anche contrattuale, del soggetto irrispettoso del provvedimento normativo in esame [2]. Considerato che la congerie di questioni sollevate dalla responsabilità per inadempimento di obbligazioni coinvolgenti sistemi intelligenti «si presenta in termini non dissimili nel caso di responsabilità extracontrattuale» [3], spunti di riflessione utili a indagare il tema che ci occupa possono essere, inoltre, rinvenuti nella proposta di direttiva sulla responsabilità extracontrattuale da IA (AI Liability Directive, d’ora in poi AILD) [4] del 28 settembre 2022, attualmente all’esame delle istituzioni europee insieme alla coeva proposta di direttiva sulla responsabilità per danno da prodotti difettosi (Product Liability Directive, o PLD) [5]. La AILD mira infatti a regolamentare la responsabilità – oltre che del fornitore, anche – dell’utilizzatore di sistemi intelligenti attraverso un [continua ..]