L’articolo analizza il sistema di gestione del rischio emergente da veicoli autonomi quale risulta dalle Proposta di Regolamento che stabilisce regole armonizzate sulla intelligenza artificiale, dalla Proposta di Regolamento sui prodotti macchina. Sono avanzate previsioni sull’impatto che l’introduzione sul mercato e lo sviluppo dei veicoli autonomi in Europa avranno sul contratto di assicurazione, quale tecnica di gestione preventiva del rischio di attività umane pericolose. In particolare, l’articolo si propone di valutare come operi il rapporto funzionale tra premio e rischi nel contratto di assicurazione dei veicoli autonomi e le conseguenze in punto di garanzia dell’obbligo di solvibilità.
The paper focuses on the risk management system developed by the Proposal for a Regulation laying down harmonised rules on artificial intelligence and the Proposal for a Regulation on machinery products. The gradual implementation of autonomous vehicles in European countries will have a significant impact also on insurance contracts involving providers and manufacturers. In many European legal systems, the insurance contract is the main tool to manage risks arising from particularly dangerous human activities. This article proposes to analyse the balance between risks and premium in the insurance contract for autonomous vehicles at EU level and to define its practical consequences, namely on insurance company’s obligations.
Articoli Correlati: intelligenza artificiale
Giulia Puleio - La gestione del rischio emergente da veicoli autonomi in due Proposte di Regolamento dell’Ue e le conseguenze sull’assicurazione degli operatori
1. Nozioni di intelligenza artificiale e veicoli autonomi. - 2. Rischio di incertezza giuridica. - 3. Rischi tecnologici connessi all’utilizzo di veicoli autonomi. - 4. Obblighi degli operatori imposti dalla nuova strategia europea in materia di intelligenza artificiale. - 5. Assicurazione degli operatori: una teoria antica per un problema futuro?
Nel mese di aprile 2021, la Commissione europea ha presentato due Proposte di Regolamento destinate ad incidere sulla disciplina dei veicoli a guida autonoma: la Proposta di Regolamento del Parlamento europeo e del Consiglio sui prodotti macchina[1] e la Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sulla Intelligenza Artificiale (legge sulla intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione[2].
Le Proposte di Regolamento intervengono in una materia complessa, che era già stata al centro di diversi documenti europei di soft law[3]. Tra questi, grande rilevanza hanno, anche sul piano delle declamazioni che fungono da indirizzo politico, il Libro Bianco sulla IA – Un approccio europeo alla eccellenza e alla fiducia[4] e la Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione sul regime di responsabilità civile e intelligenza artificiale[5].
Dall’analisi degli atti legislativi e dei documenti citati emerge che l’ordinamento europeo, che ambisce ad un ruolo di primo piano nella corsa mondiale alla intelligenza artificiale, attribuisce alla materia della implementazione, dello sviluppo e della regolazione della intelligenza artificiale il ruolo di questione fondamentale dell’agenda politica italiana, laddove la promozione dell’utilizzo dell’IA impone anche di governare i rischi associati a determinati utilizzi di tale tecnologia[6]. I vantaggi attesi dalla diffusione dell’IA nel mercato europeo sono, infatti, numerosissimi, essendo tantissimi i settori coinvolti: dalla sfera personale (i trasporti[7], l’istruzione personalizzata[8], l'assistenza alle persone vulnerabili[9], il commercio digitale[10]) fino alle sfide globali (i cambiamenti climatici[11]).
L’articolo in esame si propone di analizzare la possibilità di governare il rischio introdotto sul mercato dall’utilizzo dei veicoli autonomi attraverso lo strumento del contratto di assicurazione degli operatori coinvolti nei processi di fabbricazione e immissione nel mercato dei veicoli autonomi. Preliminari a questo fine sono la definizione di intelligenza artificiale e di veicoli autonomi (paragrafo 1), l’analisi dei rischi che il loro utilizzo può produrre (paragrafi 2 e 3) e la ricostruzione del panorama normativo che gli atti legislativi presentati dall’Unione permettono di intravedere (paragrafo 3).
Le intelligenze artificiali sono tecnologie in grado di adattarsi all’ambiente in cui lavorano pur avendo conoscenze e risorse originarie insufficienti, risolvendo compiti inaspettati e imparando dalla esperienza: l’intelligenza consiste, quindi, nella capacità di apprendimento[12]. Con l’espressione “sistemi di intelligenza artificiale” si intende una serie molto numerosa di tecnologie differenti, dalla cui introduzione si attende appunto un miglioramento della vita umana in settori fondamentali, tra cui è ovviamente anche quello della mobilità privata e pubblica[13].
Utilizzando software di intelligenza artificiale, i veicoli a guida autonoma sono sistemi in grado di prendere decisioni indipendentemente dalla interferenza umana e, a differenza della semplice automazione, di prendere queste decisioni mentre affrontano l’incertezza[14]. I veicoli autonomi sono, quindi, in grado di elaborare, imparare da e adattare i loro sistemi di guida in funzione delle condizioni esterne e in maniera molto più rapida rispetto ad un conducente umano standard. Inoltre, essendo forniti di tecnologie di comunicazione veicolo – veicolo (V2V) e veicolo – infrastruttura (V2I) sono in grado anche di imparare da altri veicoli[15].
I livelli di automazione sono cinque[16]. I veicoli che hanno livelli di automazione 1 e 2 (rispettivamente automazione assistita e automazione parziale), già in commercio, hanno funzioni di assistenza alla guida del conducente umano, cui comunque sono rimessi i compiti di guida dinamica. A partire dall’automazione condizionata che rappresenta il livello tre, è il sistema di guida automatizzato ad eseguire compiti di guida dinamica. I veicoli con livello di automazione 3 sono considerati semi-autonomi, perché il conducente umano può occasionalmente controllare il veicolo. Un veicolo raggiunge un’alta automazione al livello 4 e una piena automazione al livello 5: al livello 4 al conducente potrebbe essere richiesto di intervenire in determinate circostanze o residua la possibilità di guidare in condizioni in cui è vietato l’inserimento della guida autonoma, mentre nel caso di piena automazione il sistema sarà in grado di guidare in qualsiasi circostanza[17]. I veicoli con livelli di automazione da 3 a 5 non sono stati ancora immessi sul mercato, ma diverse stime prevedono che ciò avverrà nei prossimi anni, tanto che tra il 2030 e il 2040 saranno introdotti nel mercato europeo veicoli completamente autonomi[18], fino a rappresentare, nel 2040, il 25% del mercato.
[1] Bruxelles, 21.4.2021 COM(2021) 202 final 2021/0105 (COD), consultabile qui: https://ec.europa.eu/docsroom/documents/45508/attachments/2/translations/en/renditions/native;
[2] Bruxelles, 21.4.2021 COM(2021) 206 final 2021/0106 (COD), consultabile qui: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206.
[3] Si segnalano, in particolare: la Risoluzione del Parlamento europeo del 16 febbraio 2017, n. 2015/2013 (INL), recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, che ha l’obiettivo di integrare e aggiornare il quadro giuridico dell’Ue in materia di robotica; il Libro Bianco “L’intelligenza Artificiale a servizio del cittadino”, 21 marzo 2018, Agenzia per l’Italia digitale (AgID); la Comunicazione del 25 aprile 2018, L’intelligenza artificiale per l’Europa; la Risoluzione del Parlamento europeo del 12 febbraio 2019, 2018/2088 (INI), su una politica industriale europea globale in materia di robotica e intelligenza artificiale; il documento Scenarios and conditions for the implemantation of CAD and proactive mapping of policy measures, Commissione Europea, Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Bruxelles, 2018; la Risoluzione 20 gennaio 2021 sul tema dei sistemi autonomi di armi letali. Inoltre, sono anche numerosi gli studi europei condotti in materia: GEAR 2030 Strategy 2015 – 2017 – Comparative analysis of the competitive position of the EU automotive industry and the impact of the introduction of autonomous vehicles, Bruxelles, 2017; A common EU approach to liability rules and insurance for connected and autonomous vehicles – European Added Value Assessment, 5 Servizio Ricerca del Parlamento Europeo, Tatjana Evans, Bruxelles, 2018, Orientamenti etici per un’IA affidabile elaborato da un gruppo di esperti ad alto livello sull’IA, istituito dalla Commissione europea nel giugno 2018, e pubblicato nell’aprile 2019. Tra i primi studi condotti in Italia sull’argomento, si rinvia a A. BERTOLINI – E. PALMERINI: Regulating robotics: A challenge for Europe, in EU Parliament, Workshop on Upcoming issues of EU law for the IURI Committee, Publications Office of the Europe Parliament, Bruxelles, 2014, pp. 110 ss.
[4] Libro Bianco sulla IA – Un approccio europeo alla eccellenza e alla fiducia, Commissione europea, 19 febbraio 2020, per cui si veda: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf.
[5] Risoluzione del 20 ottobre 2020 raccomandazioni alla Commissione sul regime di responsabilità civile e intelligenza artificiale, 2020/2014 (INL), consultabile qui: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_IT.html.
[6] Come si legge nella Relazione che accompagna la Proposta di Regolamento 2021/0106.
[7] M. FINCK, M. LAMPING, V. MOSCON, H. RICHTER, Smart Urban Mobility, MPI Studies on Intellectual Property and Competition Law, Springer, 2019; M. MAURER, J. CHRISTIAN GERDES, B. LENZ, H.WINNER, Autonomous Driving, SpringerOpen, 2016.
[8] Per cui si veda il progetto, finanziato dall’Unione europea e coordinato dall’Università Campus biomedico di Roma, CONBOTS: https://cordis.europa.eu/project/id/871803/it
[9] In questo campo, le potenziali applicazioni sono tantissime. Per una ricognizione, E. MURRAY, E. B. HEKLER, G. ANDERSSON, L. M. COLLINS, A. DOHERTY, C. HOLLIS, D. E. RIVERA, R. WEST, J. C. WYATT, Evaluating Digital Health Interventions: Key Questions and Approaches, American Journal of Preventive Medicine, Volume 51, Issue 5, November 2016, pp. 843 ss. Per avere solo un esempio, si pensi all’enorme potenzialità, anche per l’accesso al lavoro delle persone con disabilità, rappresentata da una intelligenza artificiale in grado di comprendere il linguaggio naturale, per cui si rinvia R. A. KHALIL, E. JONES, M. I. BABAR, T. JAN, M. H. ZAFAR AND T. ALHUSSAIN, Speech Emotion Recognition Using Deep Learning Techniques: A Review, in IEEE Access, vol. 7, pp. 117327-117345, 2019.
[10] Si veda, in particolare, la Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione sulla legge sui servizi digitali: adeguare le norme di diritto commerciale e civile per i soggetti commerciali che operano online, commentata da M.R. MAUGERI, La Risoluzione del Parlamento europeo del 20 ottobre 2020 e gli Smart Contracts. Prime riflessioni in tema di diritto dei contratti e della concorrenza, in Contratto e impresa Europa, 2021, 25 ss.
[11] C. MULLEN, Governing a Risky Relationship Between Sustainability and Smart Mobility, in Smart Urban Mobility, MPI Studies on Intellectual Property and Competition Law, diretto da M. Finck, M. Lamping, V. Moscon, H. Richter, Springer, 2019, pp. 21 ss.
[12] Così M. ELING, D. NUESSLE, J. STAUBLI, The impact of artificial intelligence along the insurance value chain and on the insurability of risks, The Geneva Papers on Risk and Insurance - Issues and Practice, 2021, disponibile qui: https://link.springer.com/article/10.1057/s41288-020-00201-7, i quali interpretano l’intelligenza artificiale come una forma di razionalità relativa con una profonda capacità di apprendimento. È possibile anche descrivere in maniera diversa i campi di applicazione della intelligenza artificiale, attraverso altre categorie informatiche quali “apprendimento automatico”, "modellazione" o “risoluzione dei problemi”. Le nozioni di autonomia e intelligenza artificiale involgono questioni etiche molto complesse, per cui si rinvia a WILLEN F.G., HASELAGER, ‘Robotics, Philosophy and the Problems of Autonomy’ 3 Pragmatics & Cognition, pp. 517 ss.
[13] Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l'intelligenza artificiale, Introduzione, pt 1.
[14] A. TAEIHAGH, H. SI MIN LIM, Governing autonomous vehicles: emerging responses for safety, liability, privacy, cybersecurity, and industry risks, Transport Reviews, 2019, vol. 39, n. 1, pp. 103 ss.
[15] D. M. WEST, Moving forward: Self-driving vehicles in China, Europe, Japan, Korea, and the United States, 2016, disponibile qui : https://www.brookings.edu/research/moving-forward-self-driving%20vehicles-in-china-europe-japan-korea-and-the-united-states/.
[16] I criteri per distinguere tra i diversi livelli di automazione sono fissati dallo standard J3016 elaborato da SAE International nel 2016 e poi aggiornato nel 2018: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-driving-graphic.
[17] D. MILAKIS, D., B. VAN AREM, B. VAN WEE, Policy and society related implications of automated driving: A review of literature and directions for future research. Intelligent Transportation Systems, 2017, pp. 1 ss.
[18] Scenarios and conditions for the implemantation of CAD and proactive mapping of policy measures, Commissione Europea, Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Bruxelles, 2018, pp. 15 ss.
La progressiva introduzione sul mercato di questo tipo di automobili, se comporta vantaggi significativi nei termini di sicurezza delle strade, eliminando gli incidenti dovuti ad errori umani e rappresentando un progresso significativo anche nella gestione del traffico e nella lotta all’inquinamento[1], comporta anche il sorgere di rischi nuovi, che devono essere governati in maniera efficace dal diritto.
Un primo problema fondamentale attiene proprio alla incertezza giuridica, laddove bisogna comprendere quali istituti del diritto civile possano essere applicati in materia di danni derivanti da veicoli autonomi. In proposito, occorre chiarire che i veicoli con livelli di automazione 1 e 2 non possono essere considerati veicoli autonomi e, pertanto, i rischi che la loro introduzione immette nel mercato non sono diversi in maniera significativa da quelli dei veicoli tradizionali, potendo pertanto essere applicate le norme già esistenti in materia di responsabilità e assicurazione[2].
Alcuni ordinamenti europei stanno timidamente modificando il proprio apparato di regole in materia di danni derivanti da circolazione stradale in previsione della successiva immissione nel mercato dei veicoli autonomi, di cui sono fornite diverse definizioni[3]. In particolare, in Germania, la riforma dell’articolo 1.a dello Strassenverkehrsgesetz ha esteso la nozione di veicolo a motore alle macchine dotate di dispositivi tecnici in grado di prendere parzialmente o completamente il controllo del veicolo, purché tali dispositivi possano essere disattivati manualmente dal conducente in qualsiasi momento. La modifica da parte del legislatore tedesco non permette di comprendere le automobili con un livello di automazione 4 e 5 che non possono circolare sulle strade tedesche, pur essendo concesso l’utilizzo a fini sperimentali di tali veicoli nelle circostanze e condizioni per le quali sono stati progettati. Nel Regno Unito, è stata introdotta una disciplina nel 2018 che si applica anche ai veicoli con alta e piena automazione. Similmente, una definizione ampia di veicoli autonomi è contenuta all’articolo 1, lett. F, del Decreto italiano Smart Roads[4], che definisce il veicolo a guida automatica “un veicolo dotato di tecnologie capaci di adottare e attuare comportamenti di guida senza l’intervento attivo del guidatore, in determinati ambiti stradali e condizioni esterne”.
A causa della capacità dei veicoli autonomi di imparare a compiere azioni per i quali non avevano istruzioni originariamente e di operare autonomamente, secondo una impostazione della dottrina questi – come tutte le tecnologie che utilizzino intelligenze artificiali in grado di apprendere – non sarebbero ontologicamente prodotti, ma dovrebbero essere dotati di una propria soggettività giuridica[5]. In particolare, secondo questa tesi, i sistemi di intelligenza artificiale che utilizzano tecnologie come le reti neurali e i processi di apprendimento profondo pongono, in punto di responsabilità, e quindi di allocazione del rischio e del danno, un problema nuovo al diritto civile. L’operatore economico cui si deve la produzione o la immissione nel mercato del prodotto potrebbe perdere il controllo dell’attività del sistema di intelligenza artificiale: se il danno deriva dalla operazione autonoma del veicolo autonomo, è inefficiente che la responsabilità sia attribuita alla persona fisica proprietaria del veicolo o all’operatore economico che ne è produttore, perché estraneo alla sfera d’azione. Proprio per evitare che l’attribuzione del danno sia inefficiente, la dottrina citata ritiene che responsabile sia il veicolo autonomo in quanto tale. Tuttavia, questa impostazione, già duramente criticata da una parte della dottrina, che riconosce la soggettività giuridica, e quindi la responsabilità, soltanto ai soggetti, rispetto ai quali i robot sono al servizio[6], risulta ormai superata dalla Risoluzione del Parlamento europeo di ottobre 2020, secondo la quale i sistemi di IA non possiedono né una personalità giuridica né una coscienza umana e […] il loro unico compito consiste nel servire l'umanità[7]. In maniera coerente, poi, la Risoluzione del Parlamento europeo in esame ritiene meno ambiguo l’utilizzo della espressione “processo decisionale automizzato”, anziché il termine “intelligenza artificiale”, al fine di individuare l’utente, il quale, utilizzando un software o un servizio, delega inizialmente una decisione, in parte o interamente, alla entità che, a sua volta, utilizza modelli decisionali automatizzati per lo svolgimento di un’azione per conto di un utente, o per informare le decisioni dell'utente nello svolgimento di un’azione[8].
Prima di procedere all’analisi dei rischi che saranno immessi nel mercato con la introduzione di veicoli autonomi e degli obblighi che la Risoluzione del Parlamento europeo e le Proposte di Regolamento citate individuano in capo ai soggetti potenzialmente responsabili, può essere utile condurre qualche considerazione in ordine al dibattito (anche italiano) in materia di intelligenza artificiale, che, come si è già accennato, rileva un rischio giuridico rappresentato dalla incertezza in ordine alle norme applicabili in materia[9].
In materia, anche la “Relazione sulle implicazioni della intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità”, che ha accompagnato il Libro Bianco del 2020, sottolinea come la certezza del diritto sia fondamentale per aumentare la fiducia nelle tecnologie digitali, anche perché le eventuali lacune potrebbero ostacolare un ostacolo alla parità dei concorrenti fabbricanti, e quindi minare l’efficienza. In particolare, la Relazione, dopo avere condotto un’analisi dell'impatto delle nuove tecnologie e delle sfide che esse pongono per la legislazione dell'Unione in materia di sicurezza, ha individuato tutte le lacune della direttiva macchina[10] rispetto alla ipotesi di introduzione sul mercato di veicoli autonomi. In particolare, la direttiva macchina non prende in considerazione il rischio che deriva dalla interazione diretta uomo – robot nel caso di utilizzo di robot collaborativi (cobot). Altre fonti di rischio discendono dalla connessione tra i veicoli e dal modo in cui gli aggiornamenti dei software modificano il comportamento delle macchine immesse sul mercato. In dubbio è anche la capacità del fabbricante di condurre una valutazione del rischio emergente dalle applicazioni di apprendimento automatico prima della immissione del veicolo sul mercato. Soprattutto, la direttiva macchine presuppone sempre che vi sia una persona fisica lato sensu incaricata del funzionamento della macchina, anche semplicemente nel senso che questa venga azionata grazie ad un telecomando. Ma i veicoli con livelli di automazione 4 e 5 sono privi di conducente e la funzione di guida dinamica è svolta dal veicolo in un modo che la direttiva macchine non prende assolutamente in considerazione. La Risoluzione del Parlamento europeo sostiene che queste lacune devono essere colmate in modo da garantire la certezza del diritto per tutte le parti, produttore, operatore, persona interessata o terzi.
Rispetto all’ordinamento giuridico italiano, la dottrina ha sottolineato soprattutto il rischio di una possibile sovrapposizione dei diversi gruppi di norme astrattamente applicabili[11] in assenza di un intervento legislativo in materia.
Innanzitutto, bisogna ricordare la disciplina in materia di responsabilità del produttore, che, di certo, non è stata dettata considerando i rischi rappresentati dai veicoli autonomi: infatti, le tre categorie dei difetti di fabbricazione, dei difetti di progettazione e dei difetti di istruzione mal si adattano agli eventuali danni derivanti da guasti dei veicoli autonomi[12]. Inoltre, è difficile comprendere se la responsabilità vada configurata in capo alle imprese che abbiano fabbricato il veicolo autonomo oppure ai terzi progettisti del software (articolo 121 codice del consumo). La disciplina che deriva dagli articoli 114 codice consumo è insufficiente anche per altre ragioni, che attengono al regime probatorio (difetto, danno e nesso causale sarebbe in capo al danneggiato), alle voci di danno risarcibile (non sarebbe risarcito la perdita del veicolo autonomo, pur economicamente significativa), alla difficoltà di inquadrare il software tra i prodotti.
L’ordinamento italiano conosce, poi, all’articolo 2054 c.c. un regime di responsabilità che grava sul conducente del veicolo a causa di una colpa presunta, cui si affianca, per garantire la compensazione, la responsabilità del proprietario del veicolo – cui è equiparato anche l’usufruttuario, l’acquirente con patto di riscatto, nonché l’utilizzatore a titolo di locazione finanziaria – il quale risponde in solido salva la prova che la circolazione sia avvenuta contro la sua volontà. Nel quadro giuridico che ne deriva, conducente e proprietario sono solidalmente responsabili per i danni derivanti da vizi di costruzione e difetti di manutenzione, laddove poi la previsione di una copertura assicurativa obbligatoria ha la funzione di garantire la compensazione dei danni subiti dai terzi. Evidentemente, la principale difficoltà rispetto all’applicazione di questa disciplina deriva dalla impossibilità di individuare un conducente. Come è stato detto, non si può accogliere la tesi di chi vorrebbe attribuire la personalità giuridica al software di bordo. Anche la proposta di identificare il conducente nel soggetto che mette in moto il veicolo, attivando la guida automatica, secondo quanto disposto dall’articolo 1.a dello Strassenverkehrsgesetz, non convince, perché l’introduzione di veicoli completamente autonomi stravolgerà il sistema dei trasporti, pubblici e privati, per cui non è razionale estendere una responsabilità per colpa presunta al soggetto che si limiti ad accendere il dispositivo e non ha nessun controllo su di esso[13]. Stesse obiezioni possono muoversi in ordine alla possibilità di applicare estensivamente l’articolo 2050 c.c. come ipotesi di responsabilità oggettiva per attività pericolosa.
Per questo, deve essere accolta con favore la nuova strategia europea di disciplinare con un approccio differenziato i rischi derivanti dall’utilizzo di sistemi di intelligenza artificiale anche nel campo dei veicoli.
L’articolo 6 della Proposta di Regolamento che stabilisce regole armonizzate sull'intelligenza artificiale subordina la classificazione di un sistema di IA come “ad alto rischio” alla presenza cumulativa di due condizioni: a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato II; b) il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato II.
In proposito, le Proposte di Regolamento di aprile 2021 collocano i veicoli con livello di automazione elevato tra le tecnologie ad alto rischio, perché il funzionamento autonomo può, in maniera causale e difficile da governare, causare danni come la lesione dei diritti fondamentali (ad esempio, la vita, la salute, la privacy). Obiettivo delle due Proposte, che sono state presentate in tandem lo stesso giorno e contengono le stesse definizioni di intelligenza artificiale, è quello di dettare un quadro uniforme in tutta l’Unione europea in materia di gestione dei rischi creati dalle intelligenze artificiali, nella consapevolezza che uno dei problemi principali in materia di uso della intelligenza artificiale è rappresentato dalla incertezza del diritto dovuto alla mancanza di chiarezza sull’ambito di applicazione delle diverse regole e sulle definizioni. Da una parte, la Proposta di Regolamento sulla intelligenza artificiale detta alcuni requisiti volti a governare i rischi per la sicurezza dei sistemi di IA che assolvono funzioni di sicurezza nelle macchine; dall’altra, la Proposta di Regolamento sui prodotti macchina, destinata a sostituire la Direttiva macchine[14], individua requisiti specifici per garantire la sicurezza della integrazione del sistema di IA nella macchina nel suo complesso. Le due Proposte di Regolamento definiscono l’ambito di applicazione della loro disciplina facendo salve le eventuali azioni derivanti dal diritto europeo derivato in materia di protezione dei dati, tutela dei consumatori, non discriminazione e parità di genere, mentre l’approccio proporzionale fondato sul rischio, comune ad entrambe le Proposte, dimostra tutte le inadeguatezze, rispetto alle tecnologie emergenti, della disciplina eurounitaria in materia di prodotti difettosi[15]. Le procedure di conformità previste in materia di messa in servizio e uso di sistemi di intelligenza artificiale e di prodotti macchine risultano poi in linea con la disciplina europea in materia di accreditamento, vigilanza e commercializzazione dei prodotti[16].
Occorre adesso analizzare quali siano i rischi tecnologici dovuti all’utilizzo di veicoli autonomi, in modo da valutare gli obblighi in capo agli operatori lato sensu responsabili dell’immissione di tali rischi sul mercato e vagliare l’impatto di tali obblighi in punto di assicurazione.
[1] M. FINCK, M. LAMPING, V. MOSCON, H. RICHTER, Smart Urban Mobility, MPI Studies on Intellectual Property and Competition Law, Springer, 2019; M. MAURER, J. CHRISTIAN GERDES, B. LENZ, H.WINNER, Autonomous Driving, SpringerOpen, 2016.
[2] Nell’ordinamento giuridico italiano, si tratta, com’è noto, delle norme di cui all’articolo 2054 c.c. in sinergia con il sistema di assicurazione privata obbligatoria per i veicoli a motore senza guida di rotaie introdotto dalla l. 24 dicembre 1969, n. 990, e oggi regolata dall’articolo 122 del Codice delle assicurazioni private, d.lgs. 7 settembre 2005, n. 209. Sul punto, si rinvia a M. TAMPIERI, L’intelligenza artificiale: una nuova sfida anche per le automobili, in Contratto e impresa/Europa, 2/2020, pp. 732 ss.
[3] Per una ricognizione completa, si rinvia a R. LOBIANCO Veicoli a guida autonoma e responsabilità civile: regime attuale e prospettive di riforma, Parte I, Resp. Civ. e prev., n. 3, 2020, pp. 724 ss.
[4] D.m. 28 febbraio 2018 relativo alle “Modalità attuative e strumenti operativi della sperimentazione su strada delle soluzioni di Smart Road e di guida connessa e automatica”.
[5] A. SANTOSUOSSO, C. BOSCARATO, F. CAROLEO, Robot e diritto: una prima ricognizione, La nuova giurisprudenza civile commentata, 2012, 7/8, pp. 494 ss; CURTIS E.A. KARNOW, The Application of Traditional Tort Theory to Embodied Machine Intelligence, in R. CALO, M. FROOMKIN, I. KERR, (a cura di), Robot Law, Edward Elgar Publishing, 2016, pp 51 ss; W. F.G. HASELAGER, Robotics, Philosophy and the Problems of Autonomy, 3 Pragmatics & Cognition, 2005, pp. 517 ss.
[6] A. BERTOLINI, Insurance and Risk Management for Robotic Devices: Identifying the Problems, in Global Jurist, January 2016, 16(3) pp. 291 ss.
[7] Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l'intelligenza artificiale, Considerando 6 del Testo della Proposta Richiesta.
[8] Ibidem.
[9] A. BERTOLINI, Insurance, cit., pp 291 ss, in particolare p. 292 sottolinea che, sebbene un certo grado di incertezza sia strutturale in tutti i sistemi giuridici a causa dell’applicazione di termini che risultano elastici e, spesso, descrittivi, non può applicarsi in materia di veicoli autonomi un approccio caso per caso, che porterebbe a risultati random nell’attribuzione del rischio, generando una imprevedibilità del risarcimento.
[10] Direttiva 2006/42/CE del Parlamento europeo e del Consiglio, del 17 maggio 2006, relativa alle macchine (GU L 157 del 9.6.2006, pag. 24).
[11] Tra i contributi più recenti, R. LOBIANCO, Veicoli, pp. 724 ss e Parte II, Resp. Civ. e prev., nn. 4, 2020, pp. 1080 ss; RATTI, Riflessioni in materia di responsabilità civile e danno cagionato da dispositivo intelligente alla luce dell’attuale scenario normativo, in Contratto e impresa, 3/2020, pp. 1174 ss; U. SALANITRO, Intelligenza artificiale e responsabilità: la strategia della Commissione europea, in Riv. Dir. Civ., n. 6/2020, pp. 1246 ss; P. SERRAO D’AQUINO, La responsabilità civile per l’uso di sistemi di intelligenza nella risoluzione del Parlamento europeo 20 ottobre 2020: Raccomandazioni alla Commissione sul regime di responsabilità civile e intelligenza artificiale, in Diritto Pubblico Europeo Rassegna online, Fascicolo 1/2021, pp. 248 ss; M. TAMPIERI, L’intelligenza, pp. 732 ss; F. P. PATTI, The European Road to Autonomous Vehicle, Fordham Int'l L.J. 125, 43, 2019-2020, pp. 125 ss.
[12] Direttiva 85/374/CEE del 25 luglio 1985 e articoli 114 e ss codice del consumo. Vedi infra, paragrafo 2.
[13] M. FINCK, M. LAMPING, V. MOSCON, H. RICHTER, Smart Urban Mobility, pp. 1 ss; M. MAURER, J. CHRISTIAN GERDES, B. LENZ, H.WINNER, Autonomous Driving, pp. 1 ss.
[14] Direttiva 2006/42/CE del Parlamento europeo e del Consiglio, del 17 maggio 2006, relativa alle macchine (GU L 157 del 9.6.2006, pag. 24).
[15] Direttiva 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli stati membri in materia di responsabilità per danno da prodotti difettosi (85/374/CEE).
[16] Regolamento (CE) n. 765/2008 del Parlamento europeo e del Consiglio che pone norme in materia di accreditamento e vigilanza del mercato dei prodotti; Decisione n. 768/2008/CE del Parlamento europeo e del Consiglio relativa a un quadro comune per la commercializzazione dei prodotti; Regolamento (UE) 2019/1020 del Parlamento europeo e del Consiglio sulla vigilanza del mercato e sulla conformità dei prodotti ("nuovo quadro legislativo per la commercializzazione dei prodotti").
Com’è stato detto supra, studi recenti prevedono che le aziende automobilistiche lanceranno sul mercato veicoli autonomi a partire dai prossimi anni e che entro il 2040 questi rappresenteranno il 25% del mercato globale[1]. Diventa, quindi, fondamentale comprendere quali siano i diversi tipi di rischi associati all’utilizzo di veicoli a guida autonoma[2]. Poiché l’obiettivo dell’articolo è quello di valutare l’impatto che l’introduzione di veicoli autonomi ha sui contratti di assicurazione stipulati dagli operatori economici responsabili dei rischi connessi all’utilizzo sul mercato, occorre concentrarsi sui rischi tecnologici[3], in quanto conseguenze negative la cui allocazione può essere governata dai contratti di assicurazione, mentre si trascurano altri tipi di rischio, quali quelli ambientali[4] e quelli legati alla occupazione[5], che possono essere regolati da altri istituti di diritto privato e pubblico.
Innanzitutto, occorre ricostruire l’insieme di rischi che derivano dal guasto o da malfunzionamento del prodotto e del software tali da potere provocare incidenti, in modo da determinare il grado di sicurezza dei veicoli autonomi. Secondo la stima effettuata da Sicurstrada[6], nel 2019 il comportamento scorretto del guidatore ha causato il 90% degli incidenti su strade urbane[7] e l’87,9% su strade extraurbane[8]. La progressiva introduzione di veicoli a guida autonoma nel mercato avrà come vantaggio evidente quello di diminuire progressivamente il numero di incidenti causati da errori umani. Tuttavia, se le cause mutano, gli incidenti non spariscono. Infatti, crescendo la complessità della tecnologia, aumenta anche la probabilità statistica di errori tecnici, che compromettono la sicurezza del veicolo.
Pur prescindendo dalla condotta umana, possono esserci incidenti provocati da un guasto o un’anomalia dell’hardware o dal malfunzionamento del software. Inoltre, i veicoli autonomi sono dotati di sistemi V2V e V2I, per cui un incidente potrebbe anche essere causato da un guasto nella infrastruttura viaria oppure da una improvvisa assenza di rete telematica. Anzi, secondo la stima della Risoluzione del Parlamento europeo del 2020, se è vero che tutte le attività, i dispositivi o i processi fisici o virtuali che sono guidati da sistemi di IA possono causare direttamente o indirettamente danni o pregiudizi, quasi sempre l’evento dannoso è il risultato della creazione, della diffusione o dell'interferenza con i sistemi da parte di qualcuno.
Alcuni Paesi stanno affrontando, in previsione dell’ingresso sul mercato, il problema della sicurezza dei veicoli autonomi. In particolare, il Dipartimento dei Trasporti del Regno Unito ha elaborato una serie di test attraverso i quali i produttori valutano la sicurezza del comportamento dei veicoli autonomi in situazioni differenti[9]. In maniera simile, in Australia, il National Transport Commission ha elaborato quattro diverse opzioni normative per aumentare gli standard di sicurezza, sulle quali è stato richiesto agli operatori del mercato interessati una valutazione[10]. A livello europeo, in un periodo precedente alle Proposte di Regolamento da ultimo presentate (su cui si veda infra), sono stati apportati alcuni emendamenti alla Convenzione di Vienna del 1968 sulla circolazione stradale per rendere lecito l’uso delle tecnologie di guida automatizzata[11]. Nonostante le modifiche, il testo della Convenzione richiede ancora che ogni veicolo abbia un conducente sempre pronto a prendere il controllo dei veicoli autonomi[12]. Come sottolineato dal Servizio di ricerca del Parlamento europeo, questo obbligo è incompatibile con la maggior parte dei sistemi altamente o completamente automatizzati, che potrebbero non richiedere un conducente[13].
La piena automazione dei veicoli comporta un problema ulteriore. Infatti, poiché i veicoli autonomi di livello 4 e 5 prescindono dalla guida dinamica umana, nel caso in cui, nel corso del suo utilizzo, il veicolo autonomo si trovi di fronte ad un incidente inevitabile, la macchina deve essere stata programmata in modo da compiere scelte di ordine etico[14].
Per questa ragione, la Proposta di Regolamento che stabilisce regole armonizzate sulla intelligenza artificiale prevede (articolo 57) la istituzione di un Comitato etico, composto dal capo o da un alto funzionario di livello equivalente delle autorità nazionali di controllo, e dal Garante europeo della protezione dei dati, cui i fornitori di sistemi di IA ad alto rischio immessi sul mercato dell’Unione segnalano qualsiasi incidente grave o malfunzionamento dei sistemi.
Ma l’introduzione di veicoli autonomi comporta anche l’immissione nel mercato di rischi di natura profondamente diversa da quelli di sicurezza tradizionalmente connessi alla circolazione stradale. Infatti, i veicoli autonomi sono dotati, evidentemente, di sensori, mappe ad alta definizione e altri strumenti che raccolgono informazioni e dati per garantire il funzionamento del veicolo e la comunicazione con altri veicoli e con la infrastruttura. A rischio è, evidentemente, la privacy degli utenti: occorre una regolamentazione precisa in ordine alla possibilità di raccogliere informazioni, alla natura dei dati raccolti, alla durata ammissibile della conservazione dei dati[15]. Evidentemente, le comunicazioni V2V e quelle V2I impongono di trasmettere informazioni tra veicoli autonomi, rendendo più sicure le strade e diminuendo il rischio di incidenti, ma permettono anche di accedere da reti esterne ai movimenti del veicolo autonomo e alla sua posizione geografica. Com’è noto, l’UE adotta una strategia orientata al controllo in materia di privacy e di rischi di sicurezza informatica, realizzata in particolare dal Regolamento generale sulla protezione dei dati dell'UE[16].
Norme di dettaglio sono poi adottate in alcuni Stati europei. Ad esempio, lo Stato tedesco ha pubblicato tredici raccomandazioni volontarie in materia di privacy e gestione dei dati indirizzate ai produttori di veicoli autonomi[17], mentre il Dipartimento dei Trasporti del Regno Unito, in collaborazione con il Centre for the Protection of National Infrastructure (CPNI), ha elaborato una serie di principi chiave per la privacy e la cibersicurezza[18].
Rispetto all’utilizzo dei dati e delle informazioni sensibili emergono anche in maniera inquietante i rischi legati alla cibersicurezza[19]: i software dei veicoli autonomi sono vulnerabili all’attività di hacker. Evidentemente, i diritti fondamentali potenzialmente lesi sono numerosi: non solo la privacy violata, ma anche il diritto alla vita e quello alla salute sono messi a rischio, nel caso in cui hacker, per scopi terroristici, manomettano tali veicoli e i sistemi di software utilizzati. Negli Stati Uniti, sono state divulgate, sotto forma di raccomandazione ai produttori, alcune linee guida di NHTSA, che rinviano agli standard internazionali esistenti in materia di cibersicurezza, e in particolare a quelli pubblicati dal National Institute for Standards and Technology, SAE e l'Alliance of Automobile Manufacturers. Anche l’Unione europea non ha emanato ancora norme vincolanti in materia di cibersicurezza dei veicoli autonomi[20], anche se l’organo consultivo indipendente dell’UE sulla protezione dei dati e della privacy, il Data Protection Working Party, ha pubblicato le sue opinioni per sensibilizzare sugli sviluppi dell’intelligenza artificiale applicata ai veicoli autonomi e sui problemi di sicurezza ad esso associati[21].
Soprattutto, rispetto ai contratti di assicurazione dei produttori, un problema fondamentale è rappresentato dalla difficoltà di comprendere effettivamente quale sia il rischio prima dell’ingresso dei veicoli sul mercato[22]. I livelli di sicurezza dei veicoli possono migliorare solo con la diffusione di massa, in modo che le automobili acquisiscano una maggiore esperienza di guida nel mondo reale[23]. Per questa ragione, alcuni governi nazionali hanno adottato strategie volte ad evitare misure troppo severe per gestire i rischi di sicurezza, prevedendo aree di deregolamentazione finalizzate a permettere alle imprese il test dei dispositivi in pubblico, in modo da potere verificare il comportamento del veicolo autonomo in tutte le possibili interazioni con l’uomo, e determinare in maniera più consapevole tutti i rischi che emergono dalla immissione nel mercato delle nuove tecnologie in esame[24]. La strategia di governance dell’Unione europea è stata più timida, laddove si è scelto di utilizzare le intelligenze artificiali in ambienti realistici ricreati in laboratorio[25]. Del resto, l’Unione si propone di sviluppare le tecnologie che utilizzano sistemi di intelligenza artificiale nella piena tutela dei diritti fondamentali e quindi garantendo la sicurezza della vita, della salute, della integrità fisica e della privacy degli uomini. Per contemperare le due esigenze, la necessità di raccogliere dati utili e la tutela dei diritti fondamentali, le due Proposte di Regolamento presentate ad aprile 2021 prevedono che, ai fini dello sviluppo di sistemi di IA ad alto rischio, sia concesso ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli dell'innovazione digitale, le strutture di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei rispettivi settori di attività.
L’individuazione dei rischi specifici che i veicoli autonomi comportano rappresenta evidentemente un presupposto necessario per lo sviluppo del mercato e sono a fondamento delle regole elaborate nelle Proposte di Regolamento in esame.
[1] A. TAEIHAGH, H. SI MIN LIM, Governing autonomous vehicles, pp. 103 ss.
[2] Per un’analisi della corretta allocazione del rischio derivante dall’utilizzo di veicoli autonomi, si veda A. BERTOLINI, M. RICCABONI, Grounding the case for a European approach to the regulation of automated driving: the technology selection effect of liability rules, European Journal of Law and Economics, 1, 2020, pp. 1 ss;
[3] O. RENN, C. BENIGHAUS, Perception of technological risk: Insights from research and lessons for risk communication and management, Journal of Risk Research,16 (3-4), 2013, pp. 293 ss.
[4] C. MULLEN, Governing a Risky Relationship, pp. 21 ss e in B. LENZ, E. FRAESDRICH, New Mobility Concepts and Autonomous Driving: The Potential for Change, in Autonomous Driving, diretto da M. Maurer, J. Christian Gerdes, B. Lenz, H.Winner, SpringerOpen, 2016, pp. 173 ss.
[5] A. TAEIHAGH, H. SI MIN LIM, Governing autonomous vehicles, pp. 103 ss.
[6] Per consultare i dati si rinvia a: https://www.sicurstrada.it/Risorse/Incidenti%20stradali%20-%20Rapporto%20ACI-ISTAT%202019.pdf.
[7] La cifra sale al 94,7% se si considera il comportamento scorretto di conducente e pedone, e quindi l’errore umano complessivo.
[8] La cifra sale all’89,9% se si considera il comportamento scorretto di conducente e pedone, e quindi l’errore umano complessivo.
[9] Department for Transport, The Pathway to Driverless Cars – Summary report and action plan, 2015, disponibile qui: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/401562/pathway-driverless-cars-summary.pdf.
[10]Automated Vehicle Program Approach – National Transport Commission, settembre 2020, disponibile qui: https://www.ntc.gov.au/sites/default/files/assets/files/Automated%20vehicle%20approach.pdf.
[11] Emendamenti del 26 marzo 2014, in vigore dal 23 marzo 2016 (RU 2016 1019) alla Convenzione sulla circolazione stradale, Conclusa a Vienna l’8 novembre 1968, ratificata in Italia con Legge 5 luglio 1995, n. 308.
[12] Articolo 1, Convenzione di Vienna.
[13] S. PILLATH, Automated vehicles in the EU, EPRS, European Parliamentary Research Service, Members’ Research Service, PE 573.902, 2016, pp. 2 ss.
[14] In questo senso i veicoli autonomi ripropongono con particolare urgenza questioni etiche già affrontate dalla dottrina giuridica e dalla filosofia morale, che vengono ripercorsi in maniera approfondita, con peculiare riguardo all’applicazione nel campo dei veicoli autonomi, da G. WAGNER, Produkthaftung für autonome Systeme, Working Paper No. 3 des Forschungsinstituts für Recht und digitale Transformation, 2019, pp. 707 ss, in particolare pp. 740 ss. Il governo federale tedesco ha approvato nel 2017 un rapporto Ethik-Kommission Automatisiertes und Vernetztes Fahren: https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf?__blob=publicationFile.
[15] D. J. GLANCY, Privacy in autonomous vehicles. Santa Clara Law Review, 52(4), 2012, pp. 1171 ss.
[16]Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE, accanto al quale si possono ricordare anche la Proposta di regolamento del Parlamento europeo e del Consiglio relativo alla governance europea dei dati (Atto sulla governance dei dati) (COM/2020/767); la Direttiva (UE) 2019/1024 del Parlamento europeo e del Consiglio, del 20 giugno 2019, relativa all’apertura dei dati e al riutilizzo dell’informazione del settore pubblico, PE/28/2019/REV/1 (GU L 172 del 26.6.2019, pag. 56); la Comunicazione della Commissione, Una strategia europea per i dati (COM/2020/66 final).
[17] Tutte consultabili qui: https://www.bfdi.bund.de/DE/Home/home_node.html.
[18] Accessibili qui: https://www.gov.uk/government/publications/principles-of-cyber-security-for-connected-and-automated-vehicles/the-key-principles-of-vehicle-cyber-security-for-connected-and-automated-vehicles.
[19] M. KÖNIG, L. NEUMAYR, Users’ resistance towards radical innovations: The case of the self-driving car, Transportation Research Part F: Traffic Psychology and Behaviour Volume 44, January 2017, p. 42 ss; J. Lee, Perspectives on Automotive Automation and Autonomy, Sage Journals, Volume: 12 issue: 1, 2017, p. 53 ss.
[20] La strategia di cybersecurity dell'UE ha come pilastri fondamentali il Regolamento (CE) n. 460/2004 del Parlamento europeo e del Consiglio, del 10 marzo 2004, che istituisce l'Agenzia europea per la sicurezza delle reti e dell'informazione e il Regolamento (UE) 2019/881 del Parlamento europeo e del Consiglio, del 17 aprile 2019, relativo all’ENISA, l’Agenzia dell’Unione europea per la cibersicurezza, e alla certificazione della cibersicurezza per le tecnologie dell’informazione e della comunicazione, e che abroga il regolamento (UE) n. 526/2013 («regolamento sulla cibersicurezza.
[21] Guidelines 1/2020 on processing personal data in the context of connected vehicles and mobility related applications: https://edpb.europa.eu/sites/default/files/consultation/edpb_guidelines_202001_connectedvehicles.pdf.
[22] A. BERTOLINI, Insurance, pp. 291 ss.
[23] A. TAEIHAGH, H. SI MIN LIM, Governing autonomous vehicles, pp. 103 ss.
[24] Un esempio è rappresentato dal Toku Special Zone for Robotic Empirical Testing and Development, istituito nel 2003, di cui fornisce una profonda descrizione A. BERTOLINI, Insurance, pp. 291 ss.
[25] Il riferimento è al progetto di ricerca Robotic Innovation Facilities, di cui è disponibile l’accesso online: https://link.springer.com/chapter/10.1007/978-3-030-22327-4_3.
Il rischio immesso nel mercato con l’introduzione delle tecnologie nuove ed emergenti e il grado di controllo da mantenere sulla operatività e sul funzionamento del sistema della intelligenza artificiale costituiscono i fondamenti delle regole definite tanto dalla Risoluzione recante raccomandazioni del Parlamento europeo di ottobre 2020 quanto dalle due Proposte di Regolamento presentate ad aprile 2021.
Più precisamente, secondo la Risoluzione del Parlamento europeo del 2020, la futura proposta di regolamento in materia di responsabilità civile derivante dall’uso di sistemi di intelligenza artificiale dovrebbe costituire uno dei due pilasti di un quadro comune europeo in materia, insieme alla Direttiva 85/374/CEE, fonte normativa di riferimento anche per le azioni civili risarcitorie intentate nei confronti del produttore di un sistema di intelligenza artificiale. Individuando così nella responsabilità per danno da prodotti difettosi un mezzo efficace per ottenere il risarcimento, la Risoluzione 2020 ruota intorno al cardine rappresentato dalla responsabilità del cosiddetto operatore. In particolare, l’operatore di front-end è “la persona fisica o giuridica che esercita un certo grado di controllo su un rischio connesso all'operatività e al funzionamento del sistema di IA e che beneficia del suo funzionamento”, mentre l’operatore di back-end è “la persona fisica o giuridica che, su base continuativa, definisce le caratteristiche della tecnologia e fornisce i dati e il servizio di supporto di back-end essenziale e pertanto esercita anche un elevato grado di controllo su un rischio connesso all'operatività e al funzionamento del sistema di IA”. La Risoluzione in esame ritiene necessaria la previsione, in caso di danni derivanti da sistemi di IA, di una ipotesi di responsabilità oggettiva, che consenta di raggiungere un equilibrio tra tutela dei cittadini e incentivi alle imprese, in un ordinamento che consideri costantemente i rischi di responsabilità civile connessi ai sistemi di IA durante il loro intero ciclo di vita, dallo sviluppo all'uso fino al termine del ciclo di vita. Chiunque crei un sistema di IA, ne esegua la manutenzione, lo controlli o interferisca con esso dovrebbe essere chiamato a rispondere del danno o pregiudizio che l’attività, il dispositivo o il processo provoca. La previsione di una ipotesi di responsabilità oggettiva sarebbe coerente con le numerose norme nazionali che prevedono una responsabilità oggettiva fondata sul rischio[1]. Tuttavia, la Risoluzione del Parlamento europeo ritiene che il semplice funzionamento di un sistema di IA autonomo non sia condizione sufficiente per ammettere l’azione di responsabilità. Nei casi in cui sia estremamente oneroso o addirittura impossibile identificare il soggetto preposto al controllo del sistema di intelligenza artificiale, la Risoluzione ritiene tollerabile che il costo del danno resti in capo a chi lo abbia subito, piuttosto che realizzare un’attribuzione della responsabilità iniqua o inefficiente.
Più complesso è il quadro di obblighi imposto agli operatori del mercato delle due Proposte di Regolamento, che però non dettano norme espresse in materia di responsabilità civile, ma perseguono lo scopo di definire una solida metodologia per la gestione dei rischi dei sistemi di intelligenza artificiale “ad alto rischio”, cioè che pongono rischi significativi per la salute e la sicurezza o per i diritti fondamentali.
Innanzitutto, le due Proposte di Regolamento determinano in maniera puntuale i rispettivi ambiti di applicazione, stabilendo che la Proposte di Regolamento in materia di intelligenza artificiale è integrata dalla normativa settoriale quale risulta dall’approvazione della Proposta di Regolamento sui prodotti macchine, in modo da assicurare la coerenza dell’impianto normativo e ridurre al minimo gli oneri degli operatori del mercato. La principale norma di coordinamento tra le due Proposte di Regolamento è contenuta all’articolo 9 della Proposta di Regolamento su prodotti macchine, in base alla quale, qualora i prodotti macchina siano dotati di un sistema di intelligenza artificiale, al quale si applicano i requisiti essenziali di sicurezza e di tutela della salute di cui al regolamento IA, in relazione a tale sistema di intelligenza artificiale il regolamento macchine si applica soltanto per quanto concerne la sua integrazione sicura nella macchina complessiva, in maniera da non compromettere la sicurezza del prodotto macchina nel suo complesso[2]. Del resto, i contenuti delle due Proposte di Regolamento sono speculari quanto ai requisiti richiesti al fine di garantire la sicurezza del sistema di intelligenza artificiale e del veicolo che lo incorpora: il fine ultimo è quello di garantire la sicurezza del prodotto finale. La eventuale approvazione delle due Proposte modificherà profondamente il quadro normativo attuale perché la Proposta di Regolamento sui prodotti macchina finisce per abrogare, rispetto ai veicoli autonomi, la disciplina europea precedente, inadeguata rispetto ai rischi generati dalle tecnologie emergenti[3].
Le due Proposte di Regolamento intervengono sulla disciplina esistente in maniera incisiva, distinguendo le tecnologie di intelligenza artificiale in tre gruppi: pratiche IA vietate perché fonti di un rischio inaccettabile; pratiche che introducono un rischio alto; pratiche che generano un rischio minimo. Come detto, i veicoli autonomi sono collocati tra le tecnologie che usano sistemi di intelligenza artificiale ad alto rischio, a causa del loro potenziale impatto nocivo significativo sulla salute, sulla sicurezza e sui diritti fondamentali delle persone nell'Unione. È istituito, pertanto, un sistema di controllo, grazie alla istituzione di organismi notificati coinvolti come terze parti indipendenti nelle procedure di valutazione della conformità, al fine di garantire che i sistemi di IA ad alto rischio disponibili nell’Unione o i cui output sono altrimenti utilizzati nell’Unione non presentino rischi inaccettabili per interessi pubblici importanti, come riconosciuti e tutelati dal diritto dell’Unione. I requisiti richiesti sono volti a mitigare i rischi per la salute, la sicurezza e i diritti fondamentali che il veicolo autonomo nel suo insieme può generare e riguardano la qualità dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli utenti, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Inoltre, sono definiti alcuni obblighi informativi affinché i veicoli autonomi risultino corredati da documentazione e istruzioni per l’uso pertinenti. In maniera puntuale, l’articolo 5 della Proposta di Regolamento su Prodotto macchina stabilisce che il rischio posto da ogni prodotto macchina deve essere ricostruito sulla base della combinazione della probabilità del verificarsi del danno e della sua gravità, attraverso il riferimento ad una serie di indici specifici: il grado delle ripercussioni derivanti dal danno per ciascuna persona interessata; il numero di persone potenzialmente interessate; il grado di dipendenza delle parti potenzialmente interessate dal risultato prodotto dal prodotto macchina; la misura in cui le parti potenzialmente interessate si trovano in una posizione vulnerabile nei confronti dell'utilizzatore del prodotto macchina; il grado di reversibilità del danno derivato dal prodotto macchina; la misura in cui il prodotto macchina è stato utilizzato per una destinazione specifica; le indicazioni del danno generato in passato da prodotti macchina che sono stati utilizzati per una destinazione specifica.
L’eliminazione dei rischi emergenti dal veicolo autonomo è perseguita attraverso un’adeguata progettazione e fabbricazione del veicolo, ma, laddove non ne risulti possibile la completa eliminazione, saranno necessarie misure di attenuazione e di controllo e la fornitura di informazioni adeguate agli utenti dei veicoli.
La definizione del sistema di gestione degli alti rischi emergenti dalla introduzione dei veicoli autonomi sul mercato si trova all’articolo 9 della Proposta di Regolamento sulla IA, cui rinvia anche il considerando 19 della Proposta di Regolamento sui prodotti macchina. In particolare, è previsto un processo iterativo continuo per l’intero ciclo di vita della tecnologia ad alto rischio, con un aggiornamento continuo e un’articolazione in più fasi seguenti: identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio; stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile; valutazione di altri eventuali rischi derivanti dall'analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo; adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni dei paragrafi seguenti.
Gli articoli 14 e 15 della Proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale dettano una serie di norme rilevanti anche ai fini dell’attribuzione della responsabilità. In particolare, l’articolo 14 sottopone ad una sorveglianza umana obbligatoria l’utilizzo dei sistemi di IA ad alto rischio, che devono essere così dotati di sistemi di interfaccia uomo – macchina adeguati. L’articolo successivo fissa gli standard di accuratezza, robustezza e cibersicurezza che deve essere fornito dalla intelligenza artificiale.
La Proposta di Regolamento sui prodotti macchina determina la procedura di valutazione della conformità da applicare ai veicoli autonomi[4], che l’articolo 28 rimette al controllo di un organismo notifica, con personalità giuridica e sottoposto ad un regime di assicurazione obbligatoria[5], istituito a norma della legge nazionale di ciascuno Stato membro, in modo che abbia garanzie di terzietà e indipendenza.
In base alle Proposte di Regolamento in esame le due figure principalmente responsabili dell’adempimento degli obblighi relativi alla sicurezza del veicolo autonomo sono il fornitore del sistema di intelligenza artificiale[6] e il fabbricante del prodotto[7], cui poi sono affiancati utenti, importatori e distributori.
Il fornitore è la persona fisica o giuridica che assume la responsabilità della immissione sul mercato o della messa in servizio del sistema di intelligenza artificiale ad alto rischio, indipendentemente dalla eventualità che sia anche il soggetto che abbia progettato o sviluppato il sistema. È il fornitore, in maniera proporzionata alle sue dimensioni, a dovere istituire un solido sistema di gestione della qualità, garantendo l’espletamento della procedura di valutazione di conformità, adempiendo ai previsti obblighi di documentazione e istituendo un sistema robusto per il monitoraggio successivo alla immissione sul mercato.
Più precisamente, gli articoli 16 e 17 della Proposta di Regolamento IA attribuiscono ai fornitori dei sistemi di intelligenza artificiale ad alto rischio gli obblighi di sottoporre la tecnologia alla procedura di conformità normativa, di disporre un sistema costante di gestione del rischio e monitoraggio della qualità, di redigere la documentazione tecnica. Gli stessi adempimenti imposti al fornitore vengono estesi, dall’articolo 24 della Proposta di Regolamento IA, ai fabbricanti dei prodotti, in quanto soggetti dotati delle conoscenze più dettagliate rispetto al processo di progettazione e produzione.
In caso di veicoli autonomi, quindi, anche il fabbricante del prodotto assume la responsabilità della conformità del sistema di intelligenza artificiale cui il veicolo dispone rispetto ai requisiti richiesti dalla Proposta di Regolamento sulla IA. In maniera del tutto coerente, infatti, la Proposta di Regolamento sul prodotto macchina attribuisce al fabbricante[8] i compiti di stabilire quali requisiti essenziali di sicurezza e di tutela della salute siano applicabili e in relazione a quali requisiti devono essere adottate misure per affrontare i rischi che il prodotto macchina può presentare, comprendendo anche i rischi derivanti dall’utilizzo di un sistema di intelligenza artificiale.
Entrambe le proposte di regolamento attribuiscono a importatori[9] e a distributori[10] il compito di verificare, prima della immissione sul mercato, che il sistema di intelligenza artificiale e il prodotto macchina siano stati sottoposti alle procedure di conformità previste e, in caso di rischi per la salute e la sicurezza delle persone, dei beni e della protezione dell’ambiente, di darne comunicazione all’autorità nazionale competente. L’articolo 14 della Proposta di Regolamento sui prodotti macchine stabilisce che l’importatore viene considerato un fabbricante qualora abbia immesso sul mercato un prodotto macchina con il proprio nome o marchio commerciale o abbia apportato una modifica sostanziale ad un prodotto macchina già immesso sul mercato o messo in servizio.
Infine, sono previsti alcuni obblighi in capo agli utenti del sistema di intelligenza artificiale, cioè le persone fisiche o giuridiche, l’autorità pubblica, l’agenzia o altro organismo sotto la cui autorità è utilizzato il sistema di IA, con la esclusione del soggetto che si serva della tecnologia nel corso di un’attività personale non professionale. In particolare, gli utenti devono usare i sistemi di IA ad alto rischio conformemente alle istruzioni per l’uso e rispettare altri obblighi in materia di monitoraggio.
Pur non disciplinando in maniera esplicita il profilo del risarcimento del danno, evidentemente il quadro che risulta dalle due Proposte di Regolamento ora analizzate in materia di responsabilità è complesso. Sembra che l’allocazione della responsabilità dipenderà dalla causa del danno. Se si può ravvisare una violazione degli obblighi di condotta in capo ad un soggetto – sia questo il fornitore, il fabbricante, l’importatore o il distributore, l’utente – e il danno è realizzazione del rischio che la norma violata mirava ad evitare[11], allora il risarcimento spetterà al soggetto che non abbia adempiuto agli obblighi imposti. Le ipotesi possono essere molteplici: il fabbricante che non abbia istituito il sistema costante di gestione del rischio; l’importatore che non abbia accertato il rispetto della procedura di conformità; l’utente che abbia usato il sistema in maniera non conforme alle istruzioni. Mi sembra si possa interpretare il dettato letterale delle Proposte di Regolamento in esame nel senso che, in assenza di una responsabilità imputabile ai soggetti citati, del danno rispondano gli organismi notificati che hanno proceduto alla valutazione di conformità e che pertanto correttamente sono sottoposti ad un regime di assicurazione obbligatoria. Non si tratta di ipotesi peregrine: come si è già detto, il danno potrebbe essere dovuto alla capacità di apprendimento della intelligenza artificiale, nonostante il monitoraggio costante della tecnologia. Non credo sia efficiente applicare, in questa ipotesi di responsabilità civile, una regola che limiti la responsabilità degli operatori (intendendo con questo termine tutti i soggetti cui le due Proposte di Regolamento impongono regole di condotta) alle migliori conoscenze scientifiche del momento, proprio perché la garanzia di un adeguato regime di responsabilità costituisce una condizione essenziale per lo sviluppo delle tecnologie fondate sull’intelligenza artificiale. L’eventuale effetto di disincentivo alla produzione dei veicoli autonomi potrebbe essere evitato attraverso la previsione di un regime adeguato di assicurazione degli operatori, quale strumento fondamentale di gestione del rischio e internalizzazione del costo di un eventuale danno.
[1] Più correttamente si è parlato, nell’ordinamento giuridico italiano, di una frammentazione dell’elemento soggettivo, per cui si veda, ex multis, DI MAJO, Responsabilità e danni nelle violazioni comunitarie ad opera dello Stato, in Europa e diritto privato, 1998, pp. 767 ss.
[2] Art 9, Proposta di Regolamento del Parlamento Europeo e del Consiglio sui prodotti macchina.
[3] Oltre alla Direttiva macchine, della cui inadeguatezza rispetto ai veicoli autonomi si è parlato supra (paragrafo 2), le due Proposte di Regolamento avranno un impatto sulla disciplina dettata da Regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio, del 27 novembre 2019, relativo ai requisiti di omologazione dei veicoli a motore e dei loro rimorchi, nonché di sistemi, componenti ed entità tecniche destinati a tali veicoli, per quanto riguarda la loro sicurezza generale e la protezione degli occupanti dei veicoli e degli altri utenti vulnerabili della strada, che modifica il regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio e abroga i regolamenti (CE) n. 78/2009, (CE) n. 79/2009 e (CE) n. 661/2009 del Parlamento europeo e del Consiglio e i regolamenti (CE) n. 631/2009, (UE) n. 406/2010, (UE) n. 672/2010, (UE) n. 1003/2010,(UE) n. 1005/2010, (UE) n. 1008/2010, (UE) n. 1009/2010, (UE) n. 19/2011,(UE) n. 109/2011, (UE) n. 458/2011, (UE) n. 65/2012, (UE) n. 130/2012,(UE) n. 347/2012, (UE) n. 351/2012, (UE) n. 1230/2012 e (UE) 2015/166 della Commissione (GU L 325 del 16.12.2019, pag. 1).
[4] Le Proposte di Regolamento in esame prevedono che, per motivi eccezionali di pubblica sicurezza o di tutela della vita e della salute delle persone fisiche nonché della proprietà industriale e commerciale, gli Stati membri possano autorizzare l’immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità.
[5] Non è necessario che l’organismo notificato stipuli il contratto di assicurazione se lo Stato membro risulta direttamente responsabile della conformità, secondo quanto stabilito dall’articolo 33 della Proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale.
[6] L’articolo 3 della Proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale definisce il fornitore una persona fisica o giuridica, un'autorità pubblica, un'agenzia o un altro organismo che sviluppa un sistema di IA o che fa sviluppare un sistema di IA al fine di immetterlo sul mercato o metterlo in servizio con il proprio nome o marchio, a titolo oneroso o gratuito.
[7] L’articolo 3 della Proposta di Regolamento sui prodotti macchina definisce il fabbricante qualsiasi persona fisica o giuridica che fabbrichi prodotti macchina o che faccia progettare o fabbricare tali prodotti macchina e li commercializzi con il suo nome o con il suo marchio oppure che progetti e costruisca prodotti macchina per uso proprio.
[8] Si veda l’articolo 10 della Proposta di Regolamento sui prodotti macchina, rubricato Obblighi dei fabbricanti.
[9]Secondo l’articolo 3 della Proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale, l’importatore è qualsiasi persona fisica o giuridica stabilita nell'Unione che immette sul mercato o mette in servizio un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita al di fuori dell'Unione. In maniera speculare, l’articolo 3 della Proposta di Regolamento sui prodotti macchina definisce l’importatore qualsiasi persona fisica o giuridica stabilita nell'Unione che immette sul mercato dell'Unione prodotti macchina originari di un Paese terzo.
[10]Per l’articolo 3 Proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale, il distributore è qualsiasi persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall'importatore, che mette a disposizione un sistema di IA sul mercato dell'Unione senza modificarne le proprietà. Allo stesso modo, l’articolo 3 della Proposta di Regolamento sui prodotti macchina definisce il distributore come qualsiasi persona fisica o giuridica nella catena di approvvigionamento, diversa dal fabbricante o dall'importatore, che mette a disposizione prodotti macchina sul mercato.
[11] Secondo lo schema di attribuzione di responsabilità dello Schutzgesetz, di cui al § 823, Abs II, accolto anche in Italia dall’impianto normativo dell’articolo 185 c.p., che autorevole dottrina ritiene possa essere applicato in generale: A. DI MAJO, Il problema del danno al patrimonio, in Riv. crit. dir. priv., 1983, pp. 306 ss; C.W. CANARIS, Norme di protezione, obblighi del traffico, doveri di protezione, in Riv. crit. dir. priv., 1983. pp. 572 ss; C. SCOGNAMIGLIO, Danno da violazione della disciplina antitrust e rimedi, in Riv. dir. comm., 2006, p. 727.
La definizione di regole certe volte ad individuare i soggetti responsabili degli eventuali danni derivanti dal veicolo autonomo è un presupposto fondamentale anche ai fini della definizione degli obblighi assicurativi, perché in tutti gli ordinamenti giuridici il contratto di assicurazione rappresenta uno strumento di gestione dei rischi, trasformando una incertezza ex post in un costo ex ante[1]. In termini civilistici, può dirsi che la nozione di rischio del contratto di assicurazione di eventi dannosi descrive la possibilità di un danno futuro e incerto, ove l’incertezza non riguarda tanto l’evento dannoso, ma i danni che da questo possono derivarne[2].
Com’è noto, la Direttiva 2009/103/CE prevede un regime di assicurazione obbligatoria per la responsabilità civile risultante dalla circolazione di autoveicoli, ritenendo troppo elevato il rischio associato alla circolazione di autoveicoli. Dato che il veicolo autonomo è una tecnologia ad alto rischio, nei termini che si è cercato di dimostrare, anche in questo caso un regime di assicurazione obbligatoria dovrebbe essere previsto a livello di ordinamento europeo. Tuttavia, l’analisi delineata mostra anche le profonde differenze tra responsabilità derivante da incidenti automobilistici convenzionali dalla ipotesi, futura, di danni derivanti dalla circolazione di veicoli autonomi. Queste differenze si iscrivono su più livelli e mi sembra comportino la necessità di definire in maniera differente la struttura del contratto di assicurazione dei veicoli autonomi, con alcuni risultati pratici quanto agli obblighi delle parti coinvolte.
Un primo aspetto fondamentale attiene alla persona del soggetto tenuto alla gestione del rischio e, quindi, sottoposto all’obbligo assicurativo. Nei veicoli tradizionali, il conducente mantiene sempre un grado di controllo sul veicolo e quindi è in prima battuta il responsabile per i danni causati. Le Proposte di Regolamento analizzate, così come la Risoluzione del Parlamento europeo, non annoverano tra i soggetti responsabili della gestione del rischio del veicolo autonomo l’utente persona fisica che usi il veicolo autonomo per attività non professionali. Il quadro di responsabilità che sembra delinearsi, e rispetto alla quale è pertanto auspicabile una definizione chiara in tempi brevi, induce a ritenere che sia necessario collegare l’assicurazione al prodotto e non alla persona che ne sia proprietaria, in un sistema complessivo in cui tutti gli operatori del mercato dei veicoli autonomi dovrebbero essere in possesso di un’assicurazione per responsabilità civile,[3] i cui costi influenzano il prezzo del veicolo. Sul punto, il Parlamento europeo ha anche vagliato l’ipotesi di un meccanismo di risarcimento a livello di Unione, finanziato con denaro pubblico, volto a colmare vuoti assicurativi. La soluzione di una garanzia pubblica di risarcimento dei danni provocati da intelligenze artificiali è poi stata esclusa dalla Risoluzione del Parlamento europeo del 2020, che parimenti però nega la opportunità di rimettere interamente al mercato lo sviluppo di un regime assicurativo obbligatorio. Per questo motivo, la Commissione dovrebbe collaborare strettamente con il settore assicurativo al fine di definire prodotti assicurativi innovativi. Inoltre, la Risoluzione del 2020 ipotizza il caso di eventi eccezionali, che comportino danni collettivi, in cui il risarcimento superi in modo significativo i massimali previsti dalla disciplina europea. Ricorrendo questa ipotesi, gli Stati membri dovrebbero essere incoraggiati a istituire, per un periodo limitato, uno speciale fondo di risarcimento che faccia fronte alle specifiche esigenze di tali casi.
Emerge, infatti, il secondo problema fondamentale in materia di assicurazione di veicoli autonomi: in crisi è il rapporto funzionale tra premio e rischio, ove il nesso tra entità della prestazione dovuta dall’assicurato e verificarsi dell’evento di danno rappresenta l’elemento strutturale fondamentale del regolamento contrattuale dell’assicurazione[4]. Questa crisi del rapporto funzionale tra premio e rischio è determinata da elementi differenti.
Innanzitutto, la mancanza di dati statistici sui rischi rischia di rendere troppo elevati i premi assicurativi e costituire così un ostacolo alla ricerca e alla innovazione. Il mercato delle assicurazioni avrà bisogno di tempo per adattarsi alla introduzione di veicoli autonomi. Infatti, uno dei criteri che determina l’offerta di prodotti e servizi assicurativi è la valutazione del rischio, che le compagnie di assicurazione svolgono attraverso l’accesso ai dati storici raccolti con le precedenti richieste di risarcimento. La scarsa quantità di tali dati storici o l’assenza di dati di alta qualità rappresenta il principale ostacolo alla creazione di prodotti assicurativi adeguati ai veicoli che incorporino tecnologie nuove ed emergenti. Tuttavia, si può prevedere che lo sviluppo della intelligenza artificiale avrà anche un impatto positivo sul mercato delle assicurazioni, laddove le nuove tecnologie generano dati e permettono un migliore accesso ad essi, avendo, nel giro di qualche anno, l’effetto di migliorare l’assicurabilità dei rischi[5].
Si può, però, delineare un problema ulteriore, che attiene alla natura degli eventi dannosi e ha un effetto diretto sull’assicurabilità dei rischi. Come dimostrano i dati ricordati in materia di incidenti stradali e condotta umana, è probabile che la diffusione di veicoli autonomi riduca considerevolmente il numero totale di incidenti, e ciò comporta una probabilità di perdite molto più bassa. Di contro, il malfunzionamento di un sistema di intelligenza artificiale sottostante o un attacco di hacking può causare a cascata una serie di incidenti che comportano un aumento considerevole del valore delle perdite. La crescente connessione tra veicoli comporta una connessione degli eventi di danno e quindi richiede limiti di copertura e pagamenti di premi molto alti che possono anche risultare non proporzionati rispetto al rischio immesso nel sistema del singolo veicolo.
Il tema della incidenza strutturale e funzionale del rischio nel contratto di assicurazione è stato profondamente scandagliato negli studi dogmatici del tipo contrattuale[6]. In attesa di un intervento legislativo dell’Unione in materia, che definisca gli obblighi assicurativi in capo a ciascun operatore, spunti utili possono trarsi dal dibattito italiano intorno al conflitto di interessi sotteso al contratto di assicurazione. In particolare, sembra che il fenomeno dell’assicurazione dei veicoli autonomi risulti ben descritto, con eventuali ricadute operative in punto di disciplina, dalla tesi, minoritaria ma autorevolmente sostenuta[7], che attribuisce al contratto di assicurazione natura associativa.
Sul punto, com’è stato anche ricordato da studi recenti dell’argomento[8], gli Autori che hanno sostenuto la tesi dell’assicurazione come contratto associativo ricostruiscono in termini di prestazione contrattuale la tecnica assicurativa, tradizionalmente eseguita perché necessaria per la sopravvivenza della impresa, in base alla quale i premi vanno calcolati in modo da ripartire proporzionalmente su tutti gli assicurati l’insieme dei rischi assunti dalla impresa con la stipulazione del contratto. Se l’obbligazione principale della compagnia di assicurazione consiste nell’inserire il rischio assicurato in una massa di rischi omogenei, allora sussiste un collegamento, anche sul piano giuridico, tra le prestazioni degli assicurati. Secondo questa tesi, il contratto di assicurazione si configura come contratto plurilaterale associativo perché realizza una comunione di interessi tra le parti, cioè tutti gli assicurati il cui contratto appartiene allo stesso portafoglio. La tesi è stata sviluppata valorizzando alcune norme in materia di indivisibilità del premio (articolo 1932 c.c.) e mutamento nel corso del rapporto (articoli 1897, 1898, 1926 c.c).
In particolare, il fine di garantire l’interesse collettivo degli assicurati al mantenimento delle risorse patrimoniali previste giustifica la deroga ai principi sinallagmatici rappresentata dalla disciplina in materia di indivisibilità del premio, che esclude, in alcune ipotesi di scioglimento del contratto, la possibilità per l’assicurato di recuperare i premi o lo obbliga alla corresponsione[9]. Allo stesso modo, lo scopo di proteggere la massa degli assicurati giustifica la disciplina dettata in caso di mutamento del rischio nel corso del rapporto (artt. 1897, 1898, 1926 c.c.), in base alla quale in capo all’assicuratore, e non all’assicurato, è riconosciuta la facoltà di determinare lo scioglimento del contratto[10].
Nell’ambito dell’ordinamento giuridico italiano, la tesi non è stata sviluppata con valore puramente descrittivo, ma è servita a mettere a rapporto le norme generali in materia di solvibilità e inadempimento (articoli 1460, 1461, 1901 c.c.) con alcune discipline di settore in materia di recesso dell’assicurato (gli articoli 75, 83 e 84 t. u. 13 ottobre 1959, n. 449)[11].
Mi sembra che questa tesi si adatti meglio a descrivere il conflitto di interessi sotteso al fenomeno delle assicurazioni della responsabilità civile in caso di ingresso sul mercato di veicoli autonomi. Come si è messo in evidenza nel corso dello studio, i rischi principali in materia di veicoli autonomi derivano dal loro elevatissimo grado di connessione, dovuta alla capacità di comunicazione V2V e V2I. Da ciò discende che il legislatore europeo ha dovuto individuare una pluralità di soggetti a vario titolo responsabili della gestione del rischio emergente dalla introduzione nel mercato di questa tecnologia, in capo ai quali si registrano obblighi di condotta differenti. Configurare il contratto di assicurazione stipulato tra una compagnia di assicurazione e i fabbricanti, i fornitori, gli importatori, gli utenti, gli organismi notificati come contratto associativo risulta più rispettoso del reale conflitto di interessi in gioco e probabilmente potrebbe fornire uno spunto utile per il legislatore europeo al fine di determinare la disciplina applicabile a questo sottotipo contrattuale.
Presupposto perché il sistema funzioni è, evidentemente, la certezza del diritto, per cui deve essere ben chiaro a quali obblighi sia tenuto ciascun operatore economico, in modo che possano essere stipulate polizze che lo coprano dal verificarsi del particolare rischio che gli è attribuito. La differenziazione degli obblighi giuridici, e quindi delle ipotesi di responsabilità in caso di violazione del dovere di condotta e realizzazione del danno che la regola violata mirava ad evitare, avrebbe l’effetto di mitigare il valore dei premi assicurativi concordati, che in ogni caso gli operatori economici scaricano a valle sugli utenti finali[12]. Soprattutto, mi sembra che la disciplina in materia di obbligo di solvibilità debba essere determinata in modo da assicurare la maggiore copertura possibile a garanzia non solo della massa degli interessati ma di tutti i soggetti esposti ai rischi per la salute, la privacy, la cibersicurezza e il patrimonio derivanti dalla circolazione di veicoli autonomi. Così, se il contratto di assicurazione è in questa ipotesi un contratto associativo, l’obbligo di solvibilità viene assunto verso ogni assicurato per l’intero ammontare dei rischi dedotti in contratto. Al fine di adempiere a un tale obbligo, l’impresa non solo dovrebbe perseguire la comunione dei rischi attraverso una valorizzazione tecnica in grado di neutralizzare i rischi, ma il legislatore europeo potrebbe richiedere garanzie patrimoniali ulteriori rispetto alle riserve tecniche che l’impresa deve possedere.
[1]A. BERTOLINI, Insurance, pp. 291 ss..
[2] CORRIAS P., La causa del contratto di assicurazione: tipo assicurativo o tipi assicurativi?, in Riv. Dir. Civ., 2013, 1, pp. 10041 ss;
[3] A. HEVELKE, J. NIDA-RÜMELIN, Responsibility for crashes of autonomous vehicles: An ethical analysis. Science and Engineering Ethics, 21(3), 2015, pp. 619 ss. J. M. TIEN, The sputnik of servgoods: Autonomous vehicles. Systems Science and Systems Engineering, 26(2), 2017, pp. 133 ss.
[4] Così T. ASCARELLI T., Aleatorietà e contratti di borsa, in Banca, borsa, titoli di credito, 1958, I, pp. 435 ss, spec. 439 ss, secondo il quale un contratto è aleatorio quando l’alea concerne la valorizzazione dell’evento che sfugge al controllo delle parti, l’evento è definito nel contratto e può importare anche l’assoluta mancanza di una prestazione di una parte o dell’altra, senza che la verificazione di questa eventualità influisca sulla controprestazione.
[5] M. ELING, D. NUESSLE, J. STAUBLI, The impact, disponibile qui: https://link.springer.com/article/10.1057/s41288-020-00201-7.
[6] D. VIDALI, Il concetto del rischio nell’assicurazione, in Dir. prat. ass., 1929, p. 433 ss.; G. FANELLI, Considerazioni sul concetto giuridico di rischio, in Assicuraz., 1944, p. 41 ss.; ID., Le assicurazioni, in Tratt. Cicu-Messineo, XXXVI, 1, Milano 1973, p. 65 ss.; A. DONATI, Trattato del diritto delle assicurazioni private, II, Milano 1954, p. 110 ss.; A. PINO, Rischio e alea nel contratto di assicurazione, in Assicuraz., 1960, p. 236 ss.; A. GAMBINO, L’assicurazione nella teoria dei contratti aleatori, Napoli 1964; G. MARESCA, Alea contrattuale e contratto di assicurazione, Napoli 1981; R. IPPOLITO, L’evoluzione normativa del rischio nel contratto di assicurazione, in Assicuraz., 1981, p. 155 ss., 387 ss., 477 ss.; ID., Ancora del rischio nel contratto di assicurazione, ivi, 1988, p. 371 ss.; G. DI GIANDOMENICO, Il contratto e l’alea, Padova 1987, in part. p. 137 ss; P. CORRIAS, Alea e corrispettivita` nel contratto di assicurazione (indivisibilita` del premio e sopravvenienza); P. CORRIAS, La causa, pp. 10041 ss; M. FRANZONI, L’assicurazione fra i contratti aleatori, in Contratto e impr., 2011, p. 417 ss.; M. VERNIZZI, Il rischio putativo, Milano 2008, passim; S. LANDINI, Assicurazione e responsabilità, Milano 2004, in part. p. 18 ss.
[7] ANGELICI, In tema di dissesto dell’assicuratore, in Riv. Dir. Comm., 1972, II, pp. 79 ss, spec. 81 e 85; VOLPE PUTZOLU, Riflessioni su assicurazione e comunione dei rischi, in Studi in onore di Pietro Rescigno, IV, Milano, 1998, 790, in L’assicurazione, in Trattato Rescigno, 13, V, Torino, 1985, pp. 61 ss e in Alea e Assicurazione, Riflessioni sulla monografia di Giovanni di Giandomenico: Il contratto e l’alea, in Riv. Crit, dir. Priv., 1991, pp. 274 ss. La tesi ha ricevuto autorevolissimo avallo anche da un indirizzo della Corte costituzionale: Corte cost, 5 febbraio 1975, n. 18, in Giur. Cost., 1975, I, pp. 79 ss, prec. 86, poi confermata da Corte cost., 10 maggio 1979, n. 14, in Giur. Cost., 1979, pp. 251 ss, spec. 255, che ha configurato un obbligo dell’assicurato di partecipare, mediante il pagamento dei premi, alla comunione dei rischi. Tuttavia, è prevalso poi l’orientamento opposto, in base al quale in contratto di assicurazione è un contratto di scambio bilaterale: Cass., III sez civ, 30 aprile 2010, n. 10596. Sul rapporto tra pluralità di parti e corrispettività, si rinvia a F. MESSINEO, Contratto plurilaterale e contratto associativo, in Enc. Dir., X, Milano, 1962, pp. 152 ss.
[8] P. CORRIAS, Alea, pp. 301 ss.
[9] La dottrina contraria all’orientamento in esame F. DENOZZA, Contratto e impresa nell’assicurazione a premio, Milano, 1978, pp. 75 ss valorizza la natura dispositiva di queste norme per escludere che da questa possano trarsi indicazioni di principio rispetto alla struttura e alla funzione del contratto.
[10] Anche rispetto a questo blocco di norme, gli Autori che sostengono la tesi dell’assicurazione come contratto bilaterale sottolineano la loro natura di norme dispositive: P. CORRIAS, Alea e corrispettività nel contratto di assicurazione (indivisibilità del premio e sopravvenienza), in Banca, borsa e titoli di credito, n. 3, 2015, pp. 301 ss, in particolare p. 325.
[11] C. ANGELICI, In tema, pp.79 ss.
[12] Sul tema, sono stati condotti studi volti a comprendere l’impatto che l’introduzione dei veicoli autonomi sul mercato avrà sul mercato assicurativo dei veicoli tradizionali, con particolare riferimento al mercato della California, per cui si rinvia a R. W. PETERSON, New Technology - Old Law: Autonomous Vehicles and California's Insurance Framework, Santa Clara Law Review, 52, 2012, pp. 1341 ss.