Il rapido progresso tecnologico nel campo dell’automotive pone il giurista di fronte a problematiche inedite, quali quelle sollevate dai veicoli a guida automatizzata. Con il presente contributo si intende fare luce sulla responsabilità civile per i danni cagionati dalla circolazione di tali veicoli: un’attenzione specifica viene dedicata, in primo luogo, all’osservazione del piano tecnico ed empirico, indispensabile al fine di apprezzarne la peculiarità rispetto alle fattispecie già note. A seguire, si procede a qualificare giuridicamente il fenomeno, con riguardo sia ai profili sistematici che a quelli applicativi. Si evidenzia, dunque, come i sistemi informatici complessi rendano necessario un cambio di paradigma nello studio giuridico del loro funzionamento, col passaggio da una concezione di tipo strumentale-causalista a una prospettiva funzionale, intenzionale e cibernetica.
The swift technological progress in the field of automotive challenges jurists with new issues, such as those raised by automated driving vehicles. This paper is intended to shed light on the civil liability for damages caused by using such vehicles: specific attention is paid, firstly, to the observation of the technical and empirical plan, which is essential to appreciate its peculiarity compared to the cases that are already well known. The phenomenon is then legally qualified, in relation to both systematic and practical profiles. It is shown, therefore, how complex computer systems make necessary a change of paradigm in the legal analysis of their functioning, via the transition from an instrumental-causal conception to a functional, intentional, and cybernetic perspective.
1. Premessa - 2. Sistemi di sicurezza attiva e ruolo del conducente - 3. Sistemi di guida semiautomatizzata - 4. Sistemi di guida automatizzata – Automated driving systems (ADS) - 5. La normativa in tema di veicoli a guida automatizzata e semiautomatizzata - 6. L’individuazione del conducente del veicolo dotato di sistemi di guida automatica - 6.1. – Segue: il Sistema di guida come mero strumento secondo una prospettiva “causalista” - 6.2. Segue: il software come (co)conducente del veicolo; la prospettiva funzionale, intenzionale e cibernetica - 7. La responsabilità per i danni cagionati dal veicolo a guida automatica secondo la prospettiva funzionale - 7.1. La responsabilità del proprietario del veicolo - 7.2. La responsabilità del produttore e del manutentore del sistema automatico di guida - 7.3. La responsabilità del (co-)conducente umano e dell’utilizzatore del veicolo - 7.4. La responsabilità della “smart road”: cenni - 8. Scelte etiche dei software e responsabilità giuridica - 9. La tutela dei danneggiati, l’accountability e la ripartizione “interna” della responsabilità - 9. La tutela dei danneggiati, l’accountability e la ripartizione “interna” della responsabilità - 10. Conclusioni - NOTE
L’evoluzione costante nella tecnologia automobilistica – come è noto – è oramai giunta a sviluppare sistemi di supporto alla guida sempre più incisivi, fino al punto di condurre in totale autonomia un veicolo. I vantaggi di tale progresso sono diffusamente preconizzati dalle istituzioni e dalla letteratura specializzata [1]: si prevede una drastica riduzione nel numero complessivo di incidenti, i quali sono, nella maggior parte dei casi, frutto di errori, distrazioni, imperizia (o finanche deliberata assunzione del rischio o dolo) da parte dei conducenti umani. Pur essendo vero che, al contempo, l’introduzione di sistemi di guida automatici possa comportare la creazione di nuovi rischi, legati alle caratteristiche intrinseche dei software, quali malfunzionamenti, attacchi hacker o limiti di programmazione, l’innovazione tecnologica farà sì che il bilancio complessivo dei sinistri stradali vada progressivamente a ridursi, con enormi vantaggi sociali ed economici [2]. Non irrilevanti, inoltre, sono i possibili effetti positivi relativi alla sostenibilità ambientale dei trasporti [3], all’accessibilità a nuove forme di mobilità anche per soggetti affetti da patologie e disabilità [4], oltre allo sviluppo a forme di mobilità condivisa e pubblica che consentano una maggiore inclusione anche per le fasce più povere della popolazione. Non se, dunque, ma come e quando le forme più avanzate di conduzione automatica dei veicoli si diffonderanno è la domanda da porsi oggi, e il giurista è già chiamato a ragionare sui profili giuridici rilevanti in considerazione di questa evoluzione, tra cui spicca la responsabilità civile, ambito della quale intende occuparsi la presente riflessione [5]. Al fine di analizzare al meglio il fenomeno dei veicoli a conduzione automatica, è utile innanzitutto individuare i diversi livelli di automazione, ricavabili in funzione delle tipologie di sistemi che possono intervenire nella guida, la cui relazione con l’utilizzatore umano del veicolo è suscettibile di assumere, come si vedrà, una differente e progressiva rilevanza giuridica. Grande riscontro, in tal senso, ha avuto la classificazione operata dalla Society of Automotive Engineers International (SAE International), la quale ha individuato sei livelli di automazione, da 0 a 5: la guida senza automatizzazione (liv. 0), la guida assistita (liv. 1), la guida parzialmente automatizzata (liv. 2), la guida automatizzata condizionata (liv. 3), la guida altamente automatizzata (liv. 4) e, infine, la guida pienamente automatizzata (liv. 5) [6]. Questa classificazione (che verrà più ampiamente esaminata infra) consente non solo di studiare le tecnologie in questione, onde comprendere con maggiore chiarezza il fenomeno della automazione nella conduzione dei veicoli, ma permette altresì di procedere a un’analisi giuridica basata sul rapporto tra l’umano (conducente, utilizzatore o produttore) e la macchina [7]. In questo modo, a ciascuna tipologia di intervento tecnologico sulla guida sarà possibile riconoscere una distinta rilevanza giuridica, cui ricollegare precise conseguenze sul piano della responsabilità civile [8]. Nel prosieguo, pertanto, si procederà all’esame graduale e crescente del livello di automazione automobilistica, valutandone di volta in volta il significato giuridico.
I veicoli moderni sono già oggi dotati di numerosi software che incidono sulla guida, al fine di incrementarne la sicurezza e migliorare l’efficienza dell’azione del conducente sul veicolo, così potenziando il controllo da costui esercitato [9]. Osservando tali sistemi, sembra possibile distinguere (pur senza pretese di rigore tecnico) due tipologie: la prima ricomprenderebbe quegli strumenti di segnalazione, avviso e allerta, finalizzati a mettere il conducente nella condizione di possedere una cognizione la più ampia possibile della strada e dei possibili ostacoli, nonché a mantenerne attiva la concentrazione durante la guida. In tal senso opererebbero i sistemi quali i sensori di parcheggio (park distance control – PDC), gli allarmi di fuoriuscita dalla corsia stradale (lane departure warning – LDW) o di potenziale collisione (front collision warning – FCW), il rilevamento di pedoni, l’alcolock (ossia il sistema che non consente di avviare il motore qualora rilevi un tasso alcolemico superiore alla norma), il cruise control (limitato al mantenimento di una velocità fissa, eliminando la necessità di un intervento costante sull’acceleratore), i sensori di rilevamento degli angoli ciechi e di potenziali ostacoli (lane keeping assistance – LKA), i sistemi di controllo intelligente dei fari e, infine, gli avvisi anti-sonnolenza e anti-distrazioni (Driver Monitor System) e di riconoscimento della segnaletica stradale (Traffic Sign Recognition). In una seconda tipologia, invece, si potrebbe inserire quegli strumenti che intervengono sui comandi del veicolo. A loro volta, essi potrebbero essere distinti in due sottospecie: una prima, ricomprendente i sistemi finalizzati ad agevolare l’esercizio manuale dei comandi e aumentare così il comfort e l’efficacia dei gesti di guida, come il servosterzo, il sistema di ausilio alla partenza in salita (“hill holder”), il servofreno e il cambio automatico; una seconda, invece, formata da quei meccanismi volti a impedire il verificarsi di incidenti o di condizioni critiche, le quali cagionino una perdita del controllo sulla stabilità e sull’andatura del veicolo (quali slittamenti e rollii). In tal senso opererebbero il sistema di frenata di emergenza automatica (automatic emergency breaking – AEB), che si attiva in caso di rilevata collisione imminente, e il controllo elettronico di stabilità (ESP – Electronic Stability Program, ossia) [10], che costituisce a sua volta l’evoluzione e l’integrazione dei sistemi di controllo della trazione (TCS – Traction Control System) e di antibloccaggio dei freni (ABS – Anti-Lock Braking System). Dato l’effetto positivo sulla sicurezza e sul comfort di guida, spesso si parla, a proposito degli strumenti sopra descritti, di “sistemi avanzati di assistenza alla guida” (“Advanced Driving Assistance System” – ADAS) o, più semplicemente, di “guida assistita” [11]. Alcuni di essi sono stati resi obbligatori per le automobili di nuova omologazione, prima, e di nuova immatricolazione, poi, spesso mediante normative di matrice comunitaria [12]. Tutti questi strumenti concorrono a determinare una certa automatizzazione della conduzione dei veicoli e, soprattutto, consentono un notevole incremento della sicurezza attiva, in quanto intervengono nella fase della prevenzione degli incidenti. In ciò essi si distinguono dai sistemi di sicurezza meramente passivi, come gli airbag, le cinture di sicurezza e la carrozzeria a deformazione controllata, che riducono gli effetti dannosi dei sinistri (ma, appunto, non li prevengono). Tuttavia, sul piano tecnico (e, come si vedrà meglio in seguito, anche sul piano giuridico) occorre precisare che i sistemi fin qui descritti non intervengono attivamente e autonomamente sulla guida, nel senso che è lo stesso conducente umano colui che rimane pienamente al comando del veicolo e che ne stabilisce la direzione e la velocità. In buona sostanza, essi agiscono incidentalmente al solo fine di attuare comportamenti di guida decisi dall’uomo, contribuendo a mantenere un’andatura stabile del veicolo ed eventualmente correggendola parzialmente o evitando le collisioni, ma non svolgono una vera e propria funzione di conduzione del veicolo [13]. Pertanto, essi non si sostituiscono al guidatore in quelle azioni necessarie al fine di mettere in moto il veicolo e condurlo verso una determinata destinazione [14]. Sul piano tecnico si parla, a proposito, di conduzione dinamica del veicolo (DDT – Dynamic Driving Task), la quale si esplica nello svolgimento di quelle funzioni operative e tattiche necessarie per condurre un veicolo da un luogo iniziale a uno finale: controllo longitudinale (accelerare e decelerare), laterale (sterzare), osservazione e studio della carreggiata al fine di pianificare le manovre di evitamento, effettuazione delle stesse. Infine, SAE International evidenzia come l’intervento degli strumenti appena descritti si caratterizzi per essere puramente momentaneo, e quindi ciò non consenta di ridimensionare il ruolo del conducente umano nella guida dinamica del veicolo. Per queste ragioni, i tecnici classificano i software fin qui descritti come “sistemi attivi di sicurezza” (active safety systems – ASS) [15], non rientranti nel novero degli strumenti di guida automatica. Essi, pur svolgendo funzioni automatizzate connesse alla guida, non effettuano in automatico la conduzione dinamica continuativa del veicolo (che resta esclusivamente affidata al conducente umano), limitandosi a svolgere mere funzioni ausiliari di sicurezza [16]. Conseguentemente, i veicoli dotati di tali sistemi rientrerebbero ancora in un livello di automazione zero (“no driving automation” o “driver only”), nei quali il rapporto uomo-macchina (“human-machine interface”) rimane nettamente incentrato sul ruolo attivo e costante del conducente umano [17]. Traslando le osservazioni appena svolte dal piano tecnico a quello giuridico, il mantenimento del controllo dinamico del veicolo in capo al conducente umano sembra giustificare una sostanziale continuità nel regime applicabile. Detto in altri termini, non emergerebbero profili di particolare novità e rilevanza con riferimento a queste tecnologie sul piano della fattispecie giuridica, che possano portare a nuove considerazioni di tipo interpretativo e applicativo, o finanche a far sorgere criticità nell’assetto di interessi sotteso alle norme [18]. Si segnala, comunque, come il crescente intervento dei software nell’assistenza alla guida possa generare un’espansione dell’area di responsabilità dei produttori dei veicoli e dei sistemi di sicurezza [19]: infatti, qualora tali strumentazioni si presentino difettose, ossia non garantiscano il livello di sicurezza legittimamente attendibile, e laddove tale difetto cagioni (o, più verosimilmente, concorra a cagionare) un danno, allora è ben possibile che il produttore sia chiamato a risponderne ex artt. 114 ss. cod. cons. [20]. Sembra verosimile, dunque, che la responsabilità da prodotto difettoso sia destinata ad acquisire una crescente rilevanza anche nell’ambito della r.c.a., andando ad arricchire una casistica che, finora, è rimasta molto limitata [21]. Trattasi, comunque, di profili che non appaiono caratterizzati da elementi di novità dal punto di vista qualitativo [22]: essi andrebbero semplicemente ad aumentare la probabilità (quindi, sul piano quantitativo) che certi eventi dannosi siano imputabili (anche) al produttore di una tecnologia di assistenza alla guida, senza modificare sostanzialmente il ruolo del conducente, il quale resterebbe, come si è detto, integralmente al comando del veicolo, ergo responsabile. Non nuoce ricordare, peraltro, come la legge preveda la responsabilità oggettiva del conducente e del proprietario del veicolo anche per i difetti di costruzione o manutenzione di esso (art. 2054, c. 4, c.c.).
Considerazioni differenti, invece, varrebbero per quei sistemi capaci di intervenire sulla conduzione del veicolo, e quindi sulle funzioni di guida dinamica (DDT), sostituendo in misura crescente l’umano nel controllo attivo del veicolo in un intervallo di tempo continuativo [23]. Conseguentemente, dal momento in cui il software è in grado di eseguire autonomamente almeno parte di tali funzioni si può iniziare a parlare, sul piano tecnico, di “driving automation systems”, ossia di sistemi di automatizzazione della guida in senso proprio [24]. Con il progredire dei livelli di automazione, i sistemi possono svolgere automaticamente sempre più funzioni nell’ambito della DDT e in contesti di guida sempre più ampi. Questi ultimi vengono indicati con la terminologia “operational design domain” (ODD), e per ciascun tipo di software automatico di guida ricomprendono quelle situazioni ambientali, geografiche e strutturali (si pensi al livello di traffico, alla tipologia di strada, alla presenza di determinate infrastrutture o segnaletiche, etc.) entro le quali il sistema è in grado di operare automaticamente [25]. Al livello 1 di automazione (“Driver Assistance”), il sistema è in grado di eseguire un singolo compito specifico, agendo alternativamente sulla velocità o sulla direzione del veicolo (e, quindi, non su entrambe contemporaneamente), mentre il conducente umano esegue le restanti azioni di guida. Rientrano in tali ipotesi: il controllo adattivo della velocità (adaptive cruise control – ACC), che consente di selezionare e mantenere automaticamente una velocità di crociera del veicolo e una distanza di sicurezza (il sistema, quindi, può accelerare fino alla velocità impostata e, a differenza del cruise control di base, anche decelerare, frenare e fermarsi per mantenere la distanza di sicurezza), l’assistenza al mantenimento della corsia (lane keeping assist – LKA), che corregge la direzione del veicolo per mantenerlo all’interno della corsia stradale, e il sistema di parcheggio assistito (park assist – PA), che effettua le manovre di parcheggio intervenendo sul volante, mentre il conducente umano aziona l’acceleratore e il freno [26]. Incrementando l’incidenza quantitativa e qualitativa sulle funzioni di guida, si identifica un secondo livello di automazione (“Partial Driving Automation”) in quei sistemi capaci di controllare contemporaneamente sia la velocità che la direzione del veicolo, sancendo così il passaggio a un controllo totale delle funzioni dinamiche di guida, seppure in contesti limitati. Il conducente, una volta attivato il sistema automatico, deve mantenere una vigilanza costante e attiva dell’andamento del veicolo, in quanto i limiti del software rendono necessario un potenziale intervento diretto in qualsiasi momento. Esempi di sistemi automatici di liv. 2 sono rappresentati dal park assistance, il quale è in grado di effettuare la manovra di parcheggio in modo totalmente automatico, e il traffic jam assist, che consente di condurre automaticamente il veicolo in caso di traffico intenso a lento scorrimento. I limiti di utilizzo di tali strumenti si possono apprezzare efficacemente se si considerano i contesti specifici di utilizzo (appunto, il parcheggio del veicolo o lo scorrimento lento in colonna) e le velocità massime imposte (5 km/h per la manovra di parcheggio, 30 km/h per la conduzione in colonna). Questi due livelli di automazione si caratterizzano per la presenza di parti delle funzioni dinamiche di guida ancora affidate al conducente umano, il quale continua perciò a essere chiamato tecnicamente “driver”. Nel livello 2, in particolare, egli è comunque chiamato a prestare attenzione agli ostacoli o a quegli “eventi” che possano verificarsi sulla strada e incidere sulla regolare mobilità (si parla, in tal senso, di “Object and event detection and response”). La circostanza che parte della DDT resti manuale è ciò che consente, dunque, di distinguere i livelli 1 e 2, detti “semiautomatici” o di supporto al conducente (“driver support features”), da quelli superiori, detti ADS (“Automated Driving System”), ossia, più propriamente, sistemi automatici.
A partire dal liv. 3 (“Conditional Driving Automation”), i sistemi di guida effettuano continuativamente tutte le funzioni di guida dinamica (DDT) in contesti progressivamente più estesi; l’ampliamento dell’ambito operativo (ODD), dunque, è ciò che caratterizza il passaggio ai successivi livelli 4 e 5. Questa caratteristica (ossia, lo svolgimento automatico dell’intera DDT) è ciò che consente di distinguere questi livelli da quelli inferiori, di guida semiautomatizzata, passando così al concetto di guida automatizzata tout court. Da questo punto in poi si parla, dunque, di Automated driving systems (ADS), concetto distinto da quello generale di driving automation system, che ricomprende anche i livelli 1 e 2. I sistemi di liv. 3 esistenti svolgono una conduzione automatizzata sia in caso di traffico intenso, incrementando la velocità massima raggiungibile dal software a 60 km/h (traffic jam chauffeur), sia in autostrada, potendo raggiungere il limite standard di velocità di 130 km/h (highway chauffeur) [27]. In queste ipotesi, dunque, l’utilizzatore (a questo livello di automazione si parla tecnicamente di “user”, non più di “driver”) cessa di intervenire direttamente sulla guida in specifici contesti tipizzati, nei quali il software è in grado di svolgere tutte le ordinarie funzioni di guida. L’intervento umano, dunque, potrà essere richiesto dal sistema in caso di necessità, oppure si renderà doveroso in situazioni peculiari, in relazione alle quali è richiesto perciò l’esercizio di un’attenzione costante, finalizzata a subentrare al software quando il caso concreto lo richieda. In quest’ultima situazione, l’utilizzatore del veicolo dovrà immediatamente riassumere il controllo diretto del mezzo, onde proseguire nella guida o, in caso di avaria, compiere le conseguenti azioni necessarie per raggiungere una situazione di sicurezza (ad esempio, accostare al lato della carreggiata e accendere i segnali di emergenza). Si parla, in tal senso, di “DDT fallback” (ossia “ripiego” o “ritirata”), per identificare l’attività consistente nell’interruzione della guida dinamica da parte del software e nella conseguente riassunzione totale della guida da parte dell’umano [28]. Tale transizione al liv. 3 di automazione deve essere svolta dall’utilizzatore, il quale, una volta avvertito dal sistema o accortosi della condizione di necessità, deve immediatamente intervenire per riprendere il controllo del mezzo e condurlo in sicurezza. Proprio per tale ragione, l’utente umano viene identificato tecnicamente come “DDT fallback-ready user” (ossia un utente che sia pronto in qualunque momento a riprendere attivamente il controllo del veicolo per mantenerlo in sicurezza). Incrementando l’ambito operativo (ODD), il passaggio al liv. 4 (“High Driving Automation”) consente la conduzione automatica del veicolo potenzialmente in qualsiasi contesto: autostrade (funzione “highway pilot”), strade ordinarie, sia urbane che periferiche (“urban and suburban pilot”), e, infine, le manovre di parcheggio (“parking garage pilot”). Rispetto al liv. 3, dunque, l’intervento umano è previsto come meramente eventuale ed eccezionale, dal momento che il sistema automatico è in grado di svolgere tutte le ordinarie funzioni di guida. L’utilizzatore del veicolo, pertanto, dovrà intervenire solo se ciò sia richiesto dal sistema o qualora si renda necessario in base al caso concreto, in particolare quando si debba condurre il veicolo in un ambito non ricompreso nel suo ODD. Perfino la sopra menzionata fase di transizione (DDT fallback), necessaria affinché l’utente umano riprenda il controllo del mezzo, può essere compiuta direttamente dal software di liv. 4 nel caso in cui un utente umano non intervenga: il sistema, infatti, può provvedere automaticamente a produrre una condizione minima di rischio (“minimal risk condition”), ossia a far sostare il veicolo in uno spazio e con modalità che riducano al minimo le possibilità di incidente [29]. Per tali ragioni, dunque, i tecnici denominano l’umano presente a bordo (e dotato di poteri di intervento sul veicolo) come mero “passenger”. Peraltro, sul piano tecnico non è nemmeno più necessario che vi sia un umano dentro al veicolo, potendo egli trovarsi anche a dare istruzioni al software da remoto. Rispetto ai livelli precedenti, dunque, il liv. 4 produce un potenziale cambiamento radicale nella dinamica del veicolo, dal momento che esso deve essere tecnicamente in grado di mettere in moto e far sostare il veicolo in sicurezza in qualunque caso, senza bisogno di un intervento diretto umano. Ciò fa sì che il sistema possa agire in totale autonomia all’interno del suo ambito operativo e, quindi, che sia possibile mettere in funzione il veicolo anche senza che vi sia alcun umano a bordo. Può darsi il caso, infatti, che uno o più mezzi dotati di sistemi di liv. 4 siano azionati da remoto da una “driverless operation dispatching entity” (i.e. un software centrale o un operatore umano), che stabilisce gli obiettivi e le destinazioni per i software di bordo [30]. Nei casi di sopravvenienze di problemi o limiti operativi che impediscano ai sistemi di effettuare il tragitto impostato, questi saranno in grado di mettere automaticamente in sosta i veicoli in condizioni di sicurezza, di modo che non siano necessari né alcun intervento improvviso sul veicolo, né, conseguentemente, alcuna forma di sorveglianza costante volta a consentire un tale intervento. Infine, l’ultimo stadio di automazione prevede una conduzione totalmente affidata al software (liv. 5 – “Full Driving Automation”), dove l’intervento umano si limita alla scelta puramente discrezionale in merito alla attivazione o disattivazione del software [31]. Qualora egli scelga di condurre personalmente il veicolo rivestirà, secondo la terminologia tecnica, il ruolo di “driver”; al contrario, quando la conduzione sia integralmente automatizzata ed egli si trovi a bordo del veicolo, allora sarà qualificato come un mero “passenger”. Rispetto al liv. 4, l’evoluzione riguarda sostanzialmente l’ambito operativo del sistema, il quale non incontra potenzialmente alcun limite, potendo così dispiegarsi in qualsiasi contesto urbano ed extraurbano.
La circolazione dei veicoli automatizzati in Italia è oggetto di una normativa multilivello, internazionale e interna. In ambito internazionale, l’Italia ha aderito alla Convenzione di Vienna del 1968, la quale è stata recentemente novellata proprio al fine di consentire la circolazione di veicoli dotati di sistemi di guida automatici. All’art. 8 della convenzione, infatti, si prevede che “ogni veicolo in movimento o ogni complesso di veicoli in movimento deve avere un conducente” (comma 1), e che questi debba “avere costantemente il controllo del proprio veicolo” (comma 5). La presenza di un conducente umano, dotato di un effettivo e costante controllo sul veicolo, dunque, costituisce un requisito necessario affinché esso possa circolare [32]. L’ammissibilità dei sistemi automatici di guida è stata introdotta con il nuovo comma 5-bis dell’art. 8, il quale prevede due ipotesi: innanzitutto si consente l’utilizzo di software “conformi alle disposizioni in materia di costruzione, montaggio e utilizzo previste negli strumenti giuridici internazionali riguardanti i veicoli a ruote e gli equipaggiamenti e componenti montati e/o utilizzati sugli stessi”; a seguire, in via generale e in assenza di specifiche disposizioni internazionali che li ammettano, sono fatti comunque salvi i sistemi che “possono essere neutralizzati o disattivati dal conducente”. Si può ritenere, dunque, che la Convenzione di Vienna consenta in generale l’impiego di sistemi automatizzati di guida, purché disattivabili, e che preveda inoltre la possibilità che specifiche disposizioni normative internazionali individuino i requisiti di costruzione, montaggio e utilizzo di software non disattivabili da chi si trova a bordo del veicolo [33]. Inoltre, ancora più di recente [34] è stato introdotto un nuovo art. 34-bis, il quale consente a ciascun paese aderente alla Convenzione di autorizzare al proprio interno (e con effetto limitato a tale ambito) la circolazione di veicoli dotati di sistema di guida ancora non omologati a livello internazionale. La conformità alla normativa nazionale, infatti, fa sì che debba essere ritenuto “soddisfatto il requisito della presenza di un conducente”. Per quanto concerne l’ambito comunitario, allo stato non si è ancora giunti a adottare una normativa specifica in materia di autoveicoli a guida autonoma. L’interesse delle istituzioni comunitarie e degli Stati membri nei confronti dello sviluppo comune della ricerca e della diffusione delle nuove tecnologie si è manifestato in modo rilevante innanzitutto con la Dichiarazione di Amsterdam 2016, nella quale sono stati stabiliti gli obiettivi comuni da raggiungere per lo sviluppo di una mobilità connessa e automatizzata [35]. A seguire, vi sono state Dichiarazioni e Risoluzioni degli organi europei, cui però non ha fatto seguito l’adozione di uno specifico atto normativo in materia [36]. Per tale ragione, gli Stati membri sono intervenuti autonomamente con proprie normative di diritto interno [37].
Sul piano delle fonti interne, una specifica regolamentazione per le auto a guida automatizzata è stata introdotta con il d.m. n. 70 del 28 febbraio 2018 del Ministero delle Infrastrutture e dei Trasporti, recante “Modalità attuative e strumenti operativi della sperimentazione su strada delle soluzioni di Smart Road e di guida connessa e automatica” (c.d. “Decreto Smart Road”), adottato in forza dell’art. 1, c. 72, l. 205/2017 (legge di bilancio 2018) [38]. La normativa consente la sperimentazione di veicoli dotati di sistemi di guida automatizzata diversi da quelli già omologati, subordinandola all’ottenimento di un’autorizzazione del Ministero delle Infrastrutture e dei Trasporti [39]. Posto che al momento i software omologati più avanzati non superano il livello 2 di automazione, la disciplina riguarda quindi essenzialmente i sistemi dal terzo livello in poi.
Non risulta ancora possibile, invece, la sperimentazione di veicoli privi di un umano a bordo, dal momento che la normativa rende obbligatoria la presenza costante di un “supervisore” a bordo, “il quale dovrà essere sempre in grado di assumere il controllo del veicolo indipendentemente dal grado di automazione dello stesso, in qualunque momento se ne presenti la necessità, agendo sui comandi del veicolo in assoluta precedenza sui sistemi automatizzati e che, pertanto è il responsabile della circolazione del veicolo. Quando ne assume la guida effettiva, in modalità manuale, assume il ruolo di conducente” (art. 1, lett. j), d.m. 70/2018). Non sono ancora presenti, invece, disposizioni specifiche all’interno del Codice della Strada, del quale si attende la riforma al fine di adeguare la normativa di natura tecnica al progresso tecnologico [40]. Fino ad allora, comunque, la lettura sistematica delle disposizioni del d.m. 70/2018 e della Convenzione di Vienna (a seguito delle modifiche intervenute) sembra già consentire di aggiornare sul piano ermeneutico la nozione di “veicolo”, la quale quindi si estenderebbe anche a quelli dotati di sistemi di guida automatizzata [41].
Passando ora all’esame dei profili propri del Diritto Civile, si impone innanzitutto la riflessione su chi sia, ai sensi dell’art. 2054, c 1, c.c., il “conducente” del veicolo a guida automatizzata: ciò, infatti, costituisce una premessa fondamentale per poter delineare l’ambito di applicazione, con riferimento ai veicoli automatizzati, della disciplina codicistica sulla responsabilità civile per la circolazione di veicoli privi di rotaie [42]. Sul piano giuridico, il conducente di un veicolo può essere identificato in “colui che ha la direzione e la responsabilità della guida di un veicolo e si trovi quindi nella possibilità di compiere tutte quelle manovre che sono necessarie per la guida” [43]. Osservando dapprima i livelli inferiori di automazione (c.d. semi-automazione), la dottrina si mostra sostanzialmente concorde nel continuare a incardinare tale ruolo nell’umano, il quale sia deputato allo svolgimento di parte delle funzioni di guida (pur in misura decrescente all’aumentare del livello di automazione) e alla sorveglianza costante del software di bordo, onde poter riassumere prontamente il pieno controllo del veicolo in qualsiasi situazione di necessità [44]. In buona sostanza, il potere effettivo o potenziale, anche parziale, sulle funzioni dinamiche del veicolo giustificherebbe un mantenimento della qualifica di conducente in capo all’umano che si trovi in tale situazione [45]. In relazione alla tesi del mantenimento della qualifica giuridica di conducente del veicolo in tale soggetto umano, pur progressivamente esonerato dallo svolgimento diretto delle funzioni di guida, non sembra siano opponibili ragionevoli contestazioni. Egli, infatti, continua a dover essere necessariamente presente a bordo del veicolo e, anche nei casi di conduzione totalmente automatizzata, ha il dovere di intervenire manualmente e con la massima prontezza esigibile, al fine di riassumere il totale controllo diretto del veicolo e impedire il verificarsi di sinistri stradali [46]. Da un lato, dunque, la nozione di conducente appare ancora compatibile con il ruolo dell’umano, per quanto ridotto dall’intervento dei sistemi di guida; dall’altro lato, la ratio della norma poc’anzi citata, consistente nell’impedire che da un’attività pericolosa [47] possano derivare danni, ponendo in capo al conducente un’ipotesi di responsabilità severa (oggettiva per alcuni, aggravata per altri), si dimostrerebbe ancora coerente con la situazione di fatto derivante dall’impiego delle nuove tecnologie. Sono gli stessi limiti tecnici dei sistemi di guida automatici esistenti, infatti, che impongono un’attività di sorveglianza e di pronta riassunzione dei comandi del veicolo, qualora la situazione lo richieda.
Appare più complesso, invece, ragionare sui veicoli dotati di sistemi di liv. 4 o 5, dove il software è programmato in modo da essere in grado di condurre il veicolo anche senza alcun intervento umano, potendo completare un percorso in modo autonomo, quantomeno nel senso di giungere a porre il veicolo in una condizione di sosta sicura (minimal risk condition). Sul piano tecnico, questi sistemi consentirebbero all’utilizzatore di non occuparsi più della guida e lo esimerebbero (salvo quanto si dirà infra) dal sorvegliare costantemente il software, in quanto quest’ultimo avrebbe la capacità di mantenere sempre il veicolo in condizioni sicure, eventualmente ponendolo in sosta. Ciò è ancor più vero, se si tiene conto di come questi veicoli automatizzati potrebbero essere attivati anche da remoto e senza alcun umano a bordo. Si è visto, dunque, come nel caso di questi livelli di automazione i tecnici degradino l’utilizzatore umano a mero passeggero o “dispatcher”.
Dal punto di vista giuridico, però, occorre porsi il problema dell’ammissibilità e della liceità sia della condotta di un utilizzatore che si disinteressi della sorveglianza dei sistemi di guida, sia, in misura ancora maggiore, dell’eventualità che il veicolo possa circolare senza alcun supervisore a bordo. Come si è visto, la legge oggi non consente, nemmeno in regime sperimentale, la circolazione di veicoli privi di un operatore umano a bordo, al quale è demandata la supervisione costante e attenta del veicolo, nonché l’obbligo di intervenire al fine di riassumere il pieno controllo della vettura in qualsiasi caso di necessità. Sotto il profilo del diritto positivo, pertanto, nel nostro ordinamento l’impiego dei massimi livelli di automazione non esonera il conducente umano dal suo ruolo di controllo (anche se indiretto) del veicolo. Il potenziale tecnico di questi sistemi di guida, allora, non è ancora pienamente ammissibile sul piano della liceità, in forza evidentemente del principio di precauzione, che impone un approccio graduale all’automazione nella circolazione stradale; fine, questo, che viene perseguito mediante il mantenimento di un ruolo attivo (pur se indiretto) dell’umano e di una corrispondente posizione di garanzia, che si estrinseca nei suddetti obblighi di sorveglianza costante e pronto intervento [48]. In tal modo, si può ritenere che anche i sistemi di livello 4 e 5 mantengano, sul piano giuridico de jure condito, caratteristiche di impiego simili ai livelli inferiori. Sembra allora possibile riaffermare le stesse considerazioni espresse supra, nel senso di ritenere che il supervisore (necessariamente presente a bordo del veicolo) mantenga, sul piano civilistico, la qualifica di conducente ai sensi dell’art. 2054, c.c. [49]. La dottrina, comunque, ha anche esaminato l’ipotesi in cui fosse ammessa la circolazione di veicoli privi di un supervisore a bordo [50]: ciò potrebbe darsi sia nel caso in cui all’interno del veicolo non fossero presenti umani, sia nel caso in cui questi, pur presenti, fossero privi del dovere (o, finanche, della concreta possibilità) di intervenire nella conduzione del veicolo [51]. In tali casi, gli orientamenti si dividono tendenzialmente tra chi ritiene che il conducente debba essere, comunque, il soggetto che attiva il veicolo, e chi, invece, ritiene che il veicolo debba ritenersi tout court privo di un conducente umano. In tale ultima ipotesi, l’umano che si trova a bordo del veicolo potrebbe essere considerato come un mero passeggero o, al più, come un utilizzatore [52]. Questa seconda ricostruzione sembra la più condivisibile, per quanto attiene alla qualificazione del ruolo dell’uomo (in relazione al ruolo del software si dirà meglio infra): egli, infatti, nel momento in cui cessa di svolgere qualsiasi concreta operazione sia di guida dinamica che di sorveglianza attiva del veicolo, evidentemente può rivestire soltanto, e alternativamente, o il ruolo di un mero passeggero trasportato, oppure di un utilizzatore (user). Nel primo caso si tratterebbe di un ruolo meramente passivo, dove al più si interagisce col sistema di guida al fine di impostare un percorso o una destinazione (si pensi al passeggero di un taxi) [53]; nel secondo caso, invece, potrebbero rientrare le ipotesi in cui un soggetto rivesta una posizione di maggior controllo sul software, pur rimanendo estraneo alle operazioni dinamiche di guida. Egli potrebbe, ad esempio, impartire istruzioni al sistema in merito al metodo di conduzione del veicolo, o potrebbe, in funzione del particolare rapporto giuridico col bene-veicolo, essere portatore di compiti di custodia o di manutenzione (si pensi, per esempio, al comodatario del veicolo). L’esclusione della presenza di un conducente umano del veicolo automatizzato, comunque, porta a un problema applicativo fondamentale, in quanto (come si è visto poc’anzi) il conducente è uno dei soggetti principali nei cui confronti trova applicazione la responsabilità ex art. 2054 c.c. [54]. È sostanzialmente per questa ragione, dunque, che un differente orientamento ritiene che il conducente del veicolo automatizzato debba essere comunque identificato in colui che lo attiva e che ne stabilisce l’ambito operativo (percorsi, orari, etc.) [55]: la principale preoccupazione, di solito, è quella di evitare un “vuoto di responsabilità”, ossia una lacuna nel sistema della responsabilità civile che lasci i danneggiati sprovvisti di tutela. Occorre, tuttavia, evidenziare come questo approccio si traduca sostanzialmente in una finzione giuridica [56]: nel momento in cui l’utilizzatore risulti privo di un controllo sul veicolo, sia diretto (fino al livello 2, incluso) che indiretto (nel livello 3 e, in presenza di un obbligo di legge, anche nei livelli 4 e 5), allora la conclusione non potrà che essere nel senso di escludere che egli svolga alcuna attività rientrante nel concetto di “conduzione” di un veicolo (ergo, non potrà essere considerato un “conducente”). Attribuire oggettivamente le attività compiute dal software all’umano, come se le avesse eseguite direttamente lui, non può dunque che costituire una mera finzione, la quale, come si vedrà meglio a seguire, non consente di apprezzare e disciplinare al meglio il fenomeno delle automobili a guida automatizzata [57].
Esaminato il ruolo dell’umano cui sia riferibile l’utilizzo del veicolo, occorre ora interrogarsi sulla qualificazione giuridica del sistema di guida. L’approccio comunemente adottato in dottrina consiste nel considerare il software in chiave puramente strumentale e causalista, quale longa manus di altri agenti (umani) [58]. Di conseguenza, si esclude che il software possa essere qualificato come conducente, poiché esso non agit sed agitur. L’osservazione, allora, si concentra usualmente sulle condotte umane, allo scopo di individuare i “veri” autori degli errori o dei malfunzionamenti del sistema e, in ultima istanza, attribuire loro la responsabilità giuridica per i danni cagionati da tali deficienze. Le posizioni giuridiche e le condotte esaminate, perciò, consistono sostanzialmente in quelle del conducente (umano), del proprietario del veicolo e del produttore o programmatore del software, osservate singolarmente e mediante la valutazione della sfera di controllo da essi esercitata o esercitabile sul sistema di guida. Un motivo di fragilità di questo metodo è rappresentato dal livello di complessità cui sono giunti i sistemi informatici, i quali elaborano informazioni provenienti da diverse fonti contemporaneamente e secondo criteri e procedimenti articolati, che non sempre è possibile ricostruire con precisione ex post: è il c.d. “effetto black box”, dove la “mente” del software complesso appare come una scatola nera, imperscrutabile [59]. Soprattutto, ciò che diventa particolarmente complesso da ricostruire diviene l’effettivo contributo causale degli umani che esercitano a vario titolo un controllo o una influenza sul software, dal momento che tali azioni si mescolano e tendono a produrre risultati che non sono più in rapporto di stretta dipendenza e prevedibilità rispetto a ciò che l’agente umano si è potuto rappresentare. Questo si ripercuote non solo sul piano dei nessi causali ma, in misura ancora più evidente, su quello dell’elemento soggettivo e della diligenza esigibile. La conseguenza, evidentemente, è che diviene estremamente arduo ricostruire le condotte (e, perciò, le corrispondenti responsabilità) degli umani coinvolti, in quanto gli eventi di danno cagionati dal software (rectius, secondo questa prospettiva, mediante il software) tendono a non essere loro riconducibili né sul piano causale, né tantomeno sul piano soggettivo [60]. Ciò fa sì che il collegamento giuridico tra gli output del software e la posizione giuridica dei soggetti, che con esso hanno a che fare a vario titolo, tenda a diventare sfuggente, difficile da spiegare e da giustificare quale fonte di responsabilità.
Si pensi, in primo luogo, alla posizione dell’utilizzatore del veicolo: se, come si è visto in precedenza, fino ai livelli più alti di automazione e in presenza di un espresso obbligo di supervisionare il sistema di guida egli mantiene la sostanziale qualifica di conducente, nel momento in cui questi presupposti vengono meno (e dunque cesserebbe di essere applicabile l’art. 2054 c.c.) allora non è più possibile dire altrettanto (salvo ricorrere a una finzione giuridica). Come ricostruire, allora, il collegamento giuridico tra la sua posizione e quella del software, in base al quale potergli ascrivere una qualche responsabilità giuridica? Poco spazio, evidentemente, può riconoscersi a una responsabilità diretta basata sul generale criterio della colpa, ex art. 2043 c.c., dal momento che la condotta dell’utilizzatore tende a non avere più un diretto collegamento causale con l’evento di danno e, anche quando in ipotesi esso venga accertato, diviene difficile ravvisare un effettivo profilo di colpa: i malfunzionamenti dei sistemi di guida diventano complicati sia da prevedere sia, soprattutto da correggere in tempo reale, nel breve lasso di tempo di reazione che può intercorrere tra la rilevazione del malfunzionamento da parte dell’utilizzatore e il verificarsi dell’evento, ed entro il quale dovrebbe inserirsi la condotta impeditiva dell’utilizzatore stesso [61].
Per ovviare a tali difficolta, si cerca piuttosto di inquadrare la posizione dell’utilizzatore ricorrendo alle ipotesi di responsabilità aggravata e oggettiva esistenti nell’ordinamento. Una prima possibilità sembra offerta dalla responsabilità per attività pericolose (art. 2050 c.c.): il rapporto tra l’umano e il sistema di guida, dunque, verrebbe ricostruito nel senso di ritenere che l’impiego di veicoli automatizzati costituirebbe un’attività pericolosa [62]. Resterebbe però da dimostrare, innanzitutto, l’effettiva natura pericolosa di tale attività, dal momento che i suddetti veicoli dovrebbero, al contrario, garantire un deciso aumento del livello di sicurezza rispetto alla circolazione di quelli a guida manuale (è, invero, il motivo per cui si auspica la futura diffusione della guida automatizzata, come si è visto in incipit) [63]. A seguire, resterebbe comunque da capire quali debbano essere “tutte le misure idonee a evitare il danno”, che l’utilizzatore debba adottare. Salvi usi impropri del veicolo, infatti, egli si limiterebbe a utilizzarlo in contesti ordinari di circolazione stradale (in ipotesi, adatti alla circolazione dei veicoli automatizzati) e non avrebbe alcuna concreta possibilità di incidere né sulle infrastrutture (per ovvie ragioni, in quanto mero utente della strada), né sul software (non essendo l’utente medio un tecnico informatico, né, peraltro, essendo autorizzato a incidere su un programma tutelato da diritti industriali e protetto da sistemi anti-hacker). Il ruolo meramente passivo dell’utilizzatore, dunque, non sembra lasciare spazio a particolari condotte esigibili ex ante, che siano idonee a evitare i sinistri (ergo, potrebbe essere per lui facile, in sede difensiva, dimostrare di aver effettivamente adottato tutte le misure che, in concreto, potevano essere adottate, i.e. nessuna). Un’altra tipologia di responsabilità che è stata presa in considerazione in dottrina è quella per i danni da cose e animali in custodia (artt. 2051 e 2052 c.c.): in ipotesi, dunque, l’utilizzatore del veicolo automatizzato dovrebbe essere qualificato come custode dello stesso, e risponderebbe per i danni cagionati dal veicolo, salva la prova del caso fortuito [64]. La tesi sembra offrire spunti interessanti, in quanto consentirebbe di valorizzare l’intrinseco dinamismo del software, nonché di prescindere dalla condotta (e dalla diligenza o negligenza) dell’utilizzatore. Interessante, inoltre, il paragone con i veicoli a trazione animale, dove i conducenti umani interagiscono con un’entità, l’animale da tiro appunto, dotata di una propria intelligenza e autonomia (pur nei limiti propri dell’animale). Anche in questo caso, tuttavia, potrebbe essere problematico ravvisare un effettivo rapporto di custodia tra l’umano e il sistema automatizzato di guida: a differenza delle macchine tradizionali e degli animali, il caso dell’automobile automatizzata è caratterizzato da una delegazione di decisioni al software, che comporta una graduale e progressiva riduzione del controllo esercitato dall’utilizzatore. In buona sostanza, mentre le cose e gli animali sono entità da “custodire”, controllare (onde evitare che cagionino danni a terzi), e le cui “azioni” non sarebbero predicabili secondo criteri di diligenza “antropomorfa”, i software cibernetici (tra cui quelli di guida automatizzata) nascono proprio per comportarsi come umani e poter replicare la stessa diligenza esigibile nei confronti dei loro creatori (se non una diligenza addirittura superiore) [65]. Si aggiungerebbe, poi, il problema della ricostruzione della portata della prova liberatoria del caso fortuito, la cui nozione viene variamente individuata in senso più oggettivo (e, dunque, sul piano della causalità) o soggettivo (nel senso di situazione imprevedibile). Anche sotto questo aspetto, si apre alla possibilità che il “custode” possa fin troppo agevolmente invocare il fatto altrui o l’autonomia del software quali ipotesi di caso fortuito [66]. Perfino il paragone tra i sistemi informatici evoluti e gli schiavi (considerati, in base al loro statuto giuridico, “cose” intelligenti), autorevolmente addotto a sostegno dell’applicabilità (ai primi) della logica sottesa agli artt. 2051 e 2052 c.c. [67], sembra in realtà provare troppo: lo schiavo umano, infatti, è in grado di comportarsi secondo canoni di diligenza e senza un costante e diretto controllo del “padrone” o sorvegliante (e, del resto, se si fa il paragone con gli animali da tiro, lo schiavo non necessita di essere “manovrato” al pari delle bestie) [68]. In altri termini, l’intelligenza dello schiavo umano e la sua autonomia sono quantitativamente e qualitativamente superiori rispetto a quella delle macchine se-agenti tradizionali e degli animali. Parimenti, i software evoluti (e “intelligenti”) sono in grado di realizzare comportamenti ben più complessi di quelli degli animali, e predicabili di diligenza. Il rapporto umano-software, cui si è fatto riferimento all’inizio di questa riflessione, sembra dunque qualitativamente differente da quello umano-cosa e umano-animale su cui si incentrano le norme in esame. Infine, la sostanziale totalità della dottrina prende in considerazione la posizione del produttore, in quanto quest’ultimo viene considerato dai più quale il principale artefice delle azioni del software, ergo, secondo una prospettiva di tipo strumentale e causalista, colui che dovrebbe maggiormente rispondere dei danni cagionati dal sistema di guida [69]. Tuttavia, posto che il software complesso risulta aperto a una serie indefinita di informazioni e “stimoli” provenienti dall’ambiente (sia fisico che digitale) e dagli altri umani con cui esso interagisce, si può legittimamente dubitare della possibilità di ricondurre effettivamente gli eventi dannosi cagionati dal software alla sfera di controllo del produttore. Risulta, dunque, problematico stabilire un nesso causale tra la condotta di quest’ultimo e l’output del software. Inoltre, posto che la responsabilità da prodotto difettoso si fonda sulla presenza di un difetto (e sul nesso causale tra quest’ultimo e il danno), non è nemmeno così sicuro che si possa sempre ricondurre una condotta dannosa del software all’effettiva esistenza di un difetto [70]. Le difficoltà, poi, si accentuano ulteriormente se si pensa al fatto che il difetto debba essere sussistente già al momento della messa in circolazione del prodotto, e a come i software complessi siano soggetti a continui aggiornamenti e modifiche, non necessariamente provenienti dal produttore iniziale. Per non parlare, ancora, della possibilità, attualmente offerta dalla disciplina in materia di responsabilità da prodotto difettoso, di andare esente da responsabilità qualora il difetto non fosse conoscibile in base allo stato dell’arte tecnico-scientifico (c.d. rischio di sviluppo). Anche l’ipotesi di responsabilità in esame, dunque, sembra andare incontro a notevoli difficoltà applicative, ulteriormente aggravate dalla particolare complessità e onerosità degli accertamenti tecnici necessari per raggiungere la prova in giudizio [71]. Qualcuno, allora, ha proposto di ritenere cumulabili i regimi della responsabilità da prodotto difettoso e quella da attività pericolosa (art. 2050 c.c.), riferita alla produzione di veicoli automatizzati [72]. Tuttavia, anche in questo caso riemergerebbero i già evidenziati possibili problemi interpretativi, legati sia all’effettiva qualificazione di tale attività come pericolosa, sia alle effettive misure da adottare per evitare i danni, posta la mutabilità del software nel tempo e la sua apertura alle influenze esterne (umane e ambientali). Alla luce di quanto si è detto fin qui, sembra che la logica causalista e strumentale non sia adatta a ricostruire, interpretare e qualificare giuridicamente il fenomeno tecnologico in esame [73]. A riprova di ciò, si può osservare come diversi Autori tentino di superare il problema dell’accertamento del nesso causale (tra le condotte umane e gli output dei software) mediante il ricorso a tecniche di responsabilità oggettiva, fondate su considerazioni di natura talvolta assiologica, talaltra più marcatamente economica e utilitaristica. In particolare, l’intento comune a queste proposte sarebbe quello di pervenire a un bilanciamento accettabile tra il principio di prevenzione e la tutela dei danneggiati, da un lato, e l’esigenza di incentivare lo sviluppo e la produzione di tecnologie destinate a produrre effetti sociali positivi (di cui si è già dato conto supra), dall’altro lato [74]. All’uopo, si prende spesso in considerazione la possibilità di ciascun soggetto di prevenire ex ante e gestire ex post, nell’ambito della propria sfera economica, i rischi e i danni cagionati dalle nuove tecnologie: la soluzione al problema posto dalla responsabilità per i danni cagionati dall’impiego di veicoli automatizzati, pertanto, consisterebbe nell’introdurre ex novo un’ipotesi di responsabilità oggettiva in capo al soggetto che si trovi nella posizione più agevole per prevenire, attenuare o risarcire tali conseguenze dannose. Tale figura viene identificata, di solito, nel produttore del veicolo “intelligente”. Come ulteriore soluzione alternativa o in extrema ratio, di frequente si suggerisce l’istituzione di fondi pubblici di garanzia (sul modello del fondo vittime della strada) o l’ampliamento delle ipotesi di assicurazione obbligatoria, al fine di garantire in ogni caso un risarcimento alle vittime e, al contempo, socializzare il costo di tecnologie socialmente necessarie [75]. Si può osservare, pertanto, come queste tesi affondino le proprie radici nella prospettiva causalista e, una volta rilevati i limiti applicativi e sistematici cui essa va inevitabilmente incontro, tentino di porvi rimedio a posteriori, in una prospettiva necessariamente de jure condendo, onde colmare una (presunta) lacuna dell’ordinamento [76]. Ad ogni modo, non può non evidenziarsi una sostanziale criticità di metodo alla base di queste posizioni: esse, infatti, mostrerebbero un’eccessiva inclinazione verso un’interpretazione formalista e letterale del dato normativo, che sfocia in un atteggiamento passivo di fronte alle novità tecnologiche. Infatti, la tendenza sembra quella di ravvisare lacune normative ogniqualvolta un’innovazione tecnica sfugga dal tenore testuale delle disposizioni. Alla novità tecnologica, in altre parole, corrisponderebbe sovente una lacuna nel sistema ordinamentale. Così facendo, però, il giurista sembra rinunciare al proprio ruolo di interprete del Diritto positivo, disertando la sfida della riconduzione a sistema delle problematiche sollevate dalle nuove tecnologie e non valorizzando gli strumenti interpretativi esistenti [77]. Parrebbe emergere, allora, una criticità di fondo nel modo di concepire il rapporto tra il Diritto e la tecnica: sarebbe corretto, infatti, che fosse quest’ultima a essere osservata attraverso la lente dei principi giuridici, e non il Diritto a dover (passivamente) prendere atto delle proprie lacune ogni qualvolta emerga una novità sul piano tecnologico [78]. Viceversa, il rischio è quello di non ricondurre a sistema il fenomeno tecnologico in esame, rendendo necessaria la continua introduzione di nuove regole speciali e “strappi al sistema” in un ordinamento già eccessivamente articolato, che vedrebbe così ulteriormente ridotta la sua coerenza sistematica [79]. Non indifferente, poi, è la constatazione che le proposte de jure condendo rendono pur sempre necessario attendere l’intervento del legislatore, il quale (come è tristemente noto) da tempo non dà dimostrazione di particolare rapidità, qualità ed efficacia nel produrre nuovi testi normativi [80]. Resterebbe, pertanto, aperto il problema di ricostruire una disciplina equilibrata de jure condito, in attesa delle riforme auspicate da tali Autori. Le criticità finora evidenziate nella logica tradizionale nell’approccio alle problematiche derivanti dai sistemi software complessi rende necessario, evidentemente, ripensare il rapporto uomo-software.
Adottando una prospettiva radicalmente differente da quella fin qui descritta, si potrebbe tentare di considerare direttamente il software quale (co)conducente del veicolo. Un’interpretazione, questa, che pure sembra suggerita dagli stessi studi ingegneristici del settore [81], se non addirittura dal legislatore [82], e che a volte viene osservata anche in dottrina, ma spesso scartata quasi a priori [83]. Il tema affonda le radici in quello, più ampio, della natura giuridica dei software complessi (ambito che, a sua volta, include la riflessione sulla soggettività giuridica delle Intelligenze Artificiali) [84]. Trattasi di una problematica che aveva riscontrato ampio interesse in passato, per poi essere sostanzialmente accantonata, in un atteggiamento di reazione nei confronti di alcune prospettive oltranziste (e spesso scarsamente argomentate sul piano giuridico) che hanno trovato il loro culmine nella Risoluzione del Parlamento Europeo del 2017, dove si suggeriva la prossima creazione di una personalità giuridica elettronica per i robot dotati di IA. In questo modo, tuttavia, non sono state sufficientemente approfondite talune prospettive, alternative a quella “tradizionale” causalista, che sembrano consentire una più proficua qualificazione giuridica dei fenomeni tecnologici che si sta osservando. Il riferimento, in particolare, è a quella parte di dottrina che ha proposto di studiare i sistemi informatici complessi adottando una chiave di lettura fondata su un’osservazione di tipo intenzionale e funzionale delle azioni dei software: si osserva, in particolare, come i sistemi complessi si inseriscano nel tessuto socioeconomico quali entità che svolgono autonomamente funzioni analoghe a quelle umane, rivestendo il ruolo di ausiliari degli esseri umani e sostituendosi a questi ultimi in determinate attività [85]. In tal senso, una prima premessa fondamentale sul piano empirico e sociologico è costituita dalla presenza di un fenomeno sociale complesso, in cui i fattori ambientali e le azioni di diversi attori sociali convergono e si mescolano, dando luogo a un risultato che non è più formato dalla mera somma di tali contributi, bensì culmina in qualcosa di nuovo. Ciò, evidentemente, riduce (o finanche elimina) la possibilità di ricondurre concretamente quel risultato all’azione di un determinato soggetto (umano), dando luogo a una condizione di potenziale inspiegabilità sul piano causale. È per questo motivo che diviene tendenzialmente inefficace tentare di ricostruire, di volta in volta, i precisi meccanismi causali alla base delle azioni dei software complessi (i.e. tramite il ricorso all’analisi informatica e progettuale del software), al fine di ricondurre quel risultato empirico alle condotte di singoli soggetti umani. Una seconda premessa, più propriamente giuridica, consiste nell’individuazione di un criterio (appunto, giuridico) che giustifichi la scissione delle azioni del sistema informatico da quelle degli umani che hanno costruito o utilizzato il software, ricostruendo in questo modo una sfera di autonomia giuridicamente rilevante, da associare al sistema informatico complesso [86]. Autorevole dottrina ha condivisibilmente individuato tale criterio nella capacità di decidere nell’incertezza, ovvero nel compimento della scelta di un’azione da compiere tra diverse opzioni possibili, selezionando quella ottimale in funzione di determinati obiettivi e criteri [87]. Gli effetti di queste decisioni non sarebbero sempre prevedibili ex ante dagli utilizzatori dei software, ma spesso sarebbero solo correggibili ex post: il sistema informatico complesso, dunque, è in grado di operare in assenza di un diretto controllo umano e di relazionarsi con l’ambiente, generando un esito (output) che non è più frutto diretto di una valutazione umana, ma si caratterizza, ancora una volta, per essere un quid novi. Un tale risultato è la diretta conseguenza dello scopo per il quale questi sistemi informatici vengono realizzati: sostituirsi all’umano e operare senza il suo controllo, al fine di ridurre l’impegno a lui richiesto e rendere possibili anche risultati che superino le sue capacità recettive e cognitive. In buona sostanza, si tratta dell’obiettivo che costituisce la premessa fondamentale della cibernetica [88] e dell’intelligenza artificiale: il piano tecnico, quello filosofico e quello giuridico, dunque, convergono armonicamente verso la stessa conclusione. Poste queste premesse, il mutamento di prospettiva consiste nel compiere un’operazione di astrazione, ossia di focalizzare il punto di vista sulle azioni del sistema informatico complesso, come se al suo posto vi fosse un essere umano. Si tratta, sostanzialmente, di una forma di entificazione sul piano sociale: il sistema osservato cessa di essere mero strumento, longa manus di uno o più attori sociali (produttori o utilizzatori), ma si separa da essi, venendo a formare a sua volta una nuova entità sociale. In tal modo non è più strettamente necessario ricostruire di volta in volta i procedimenti decisionali interni del sistema informatico, poiché diviene sufficiente l’osservazione empirica ed esterna delle azioni da esso compiute. Si procede dunque a osservare e interpretare le azioni del software quale attore sociale (rectius, nella terminologia di un autorevole Autore, un “attante”, ossia una forma più sfumata e primordiale di personaggio scenico teatrale) [89]: esso si caratterizza allora per essere un’entità che agisce orientando le proprie azioni verso obiettivi e risultati, e il cui comportamento, pertanto, è interpretabile secondo criteri di razionalità e di efficacia teleologica e causale, nonché (e questo diviene fondamentale ai fini dello studio della responsabilità civile) valutabile secondo modelli oggettivi di diligenza [90]. L’analisi e la qualificazione giuridica delle azioni di tale nuovo attore verrà così condotta ricorrendo agli stessi criteri con cui si procede comunemente a osservare e interpretare le azioni umane, ossia mediante l’analisi empirica e fenomenologica della condotta (intesa come l’insieme di azioni o “comportamenti”) del sistema informatico [91]. In tal senso, il metodo consiste nel ricostruire dinamicamente le azioni del software (i.e., nel nostro caso, la dinamica del sinistro) e paragonarle a quelle di un conducente umano medio, onde valutare oggettivamente la conformità della condotta alla diligenza imposta dall’ordinamento, e poter così giudicare sulla sussistenza o meno dell’elemento soggettivo costitutivo della fattispecie di responsabilità [92]. In questo modo, il comportamento tenuto da un’entità cibernetica potrà essere esaminato, spiegato e valutato alla luce di criteri che sono ben radicati nella tradizione giuridica, con l’effetto positivo di non creare, peraltro, alcuna riduzione del livello di diligenza esigibile, né discriminazioni nel trattamento dei casi di responsabilità civile tra i sinistri cagionati da veicoli tradizionali e quelli causati da veicoli automatizzati o autonomi (sul punto si tornerà infra). Si sottolinea, comunque, come una tale prospettiva non si basa su una antropomorfizzazione del software, né sul riconoscimento di una personalità in senso strettamente filosofico o metafisico [93]: al contrario, i sostenitori di queste tesi sottolineano come si tratti di un metodo di interpretazione e qualificazione della realtà focalizzata sul piano strettamente sociologico e giuridico, e strettamente finalizzato a una migliore comprensione dei fenomeni sociali e a una più efficace regolamentazione giuridica. In tale ottica non viene in considerazione, dunque, una questione di tipo morale, la quale, anzi viene ritenuta irrilevante ai fini preposti (ossia, per quanto di interesse in questa sede, per la valutazione dei fatti ai fini della allocazione della responsabilità giuridica) [94]. Posta, dunque, la necessaria premessa teorica e metodologica, e individuati di conseguenza i criteri utili per la valutazione e la qualificazione dei casi di studio, le inferenze giuridiche si prospettano di seguito: il sistema informatico di guida automatizzata viene qualificato giuridicamente come un (co-)conducente del veicolo [95], e la sua condotta di guida viene osservata, spiegata e valutata come se (ed è il caso di sottolineare che il riferimento sia, appunto, analogico) a condurre il veicolo, al posto del software, vi fosse un umano. Non si tratterebbe, peraltro, di mera finzione [96], bensì della valorizzazione della natura cibernetica del sistema informatico, il quale è stato per l’appunto creato allo scopo di sostituire l’uomo nella realizzazione di attività umane, riproducendone i comportamenti e l’intelligenza. Ancora una volta, dunque, il dato tecnologico viene osservato in chiave giuridica, rappresentando la base per l’applicazione delle norme di comportamento da sempre applicabili alla condotta umana. Giunti a questo punto, posto che la condotta del sistema di guida viene ricostruita e valutata giuridicamente come se si trattasse di un conducente umano, il passo successivo consiste nell’individuare il soggetto (o i soggetti) in capo al quale far ricadere la responsabilità per i fatti illeciti commessi dal software.
È possibile da subito osservare come nell’attuale contesto di diritto positivo non vi siano le basi minime per ipotizzare una responsabilità posta direttamente in capo ai software complessi, dal momento che essi non sono titolari di un proprio patrimonio con cui far fronte a eventuali obbligazioni risarcitorie. Il tema, perciò, si interseca con il problema della soggettività giuridica delle entità non umane (tra cui, appunto, rientrano i sistemi informatici “intelligenti”). Com’è stato condivisibilmente osservato da molteplici Autori, infatti, discutere di una piena soggettività giuridica di un’Intelligenza Artificiale richiederebbe quantomeno l’assegnazione a essa di un patrimonio, con cui possa far fronte alle obbligazioni, incluse quelle risarcitorie. De jure condito, perciò, non vi sono le necessarie basi normative per poter ragionare in una siffatta prospettiva. Ciò non si pone, peraltro, in contraddizione con la possibilità, riconosciuta anche da autorevole dottrina, di ritenere che alcuni software particolarmente avanzati possano essere titolari di una soggettività giuridica parziale, consistente nella capacità di porre in essere specifici atti giuridici [97]. Si tratterebbe, perciò, di una capacità giuridica e di agire strettamente limitata al compimento di tali atti, e per di più non nell’interesse proprio (i.e. del software), bensì sempre nell’interesse altrui, ossia degli utilizzatori umani. Ad ogni modo, anche ammettendo una siffatta capacità giuridica parziale in capo al software, resterebbe comunque insuperato il problema della mancanza di un patrimonio, che evidentemente non consente di ipotizzare una responsabilità diretta del sistema informatico. Sul piano della titolarità passiva dell’obbligazione risarcitoria, dunque, occorrerebbe sempre e comunque individuare un soggetto giuridico (in ogni caso, diverso dal software), il quale possa essere chiamato a rispondere dei danni. Anche in questo caso emergerebbe l’utilità della prospettiva intenzionale e funzionale, la quale mette in luce come, sul piano empirico e sociale, tra determinati soggetti e i software si instauri un rapporto fondato, da un lato, sull’interesse perseguito mediante le azioni cibernetiche, e, dall’altro lato, sulla possibilità di esercitare una forma di controllo e di direzione sull’operato del software. Tale controllo, in particolare, va inteso in senso ampio, potendo estrinsecarsi in azioni di vario genere, quali ad esempio la programmazione, l’assegnazione di obiettivi, la sorveglianza e la correzione degli errori. Per quanto concerne l’interesse cui l’azione del software è mirata, invece, si osserva come esso faccia capo a coloro i quali, a vario titolo, si appropriano dei risultati dell’attività cibernetica; il che potrebbe avvenire sia direttamente (ad esempio spostandosi con un’auto a guida automatizzata) che indirettamente (e.g. consentendo ad altri di spostarsi mediante il veicolo). Sintetizzando quanto appena ricostruito, si può quindi osservare come tra gli umani (proprietari, utilizzatori e fornitori di servizi informatici) e i software intercorra un collegamento di natura socioeconomica, fondato sul controllo e sul conseguimento (diretto o indiretto) di un’utilità, volta al soddisfacimento di un interesse rilevante. Rapportando ancora una volta le considerazioni svolte sul piano extragiuridico (in questo caso, quello sociologico ed economico) a quello giuridico, si può osservare come la relazione tra l’umano e la macchina si avvicini notevolmente al rapporto di preposizione ex art. 2049 c.c.: anche nel caso in esame, infatti, si può ravvisare un elemento utilitaristico, consistente nel trarre un’utilità da un’attività altrui (in questo caso, un’entità non umana), con potere di direzione e controllo su colui che la svolge (a prescindere dall’inquadramento di tale attività nell’ambito di un’impresa) [98]; inoltre, è presente l’esigenza di garantire il ristoro dei soggetti danneggiati dall’azione del software “preposto” [99]. Si può quindi ritenere che nell’impiego del sistema informatico complesso e autonomo sia possibile rinvenire gli stessi fondamenti giuridici e la medesima ratio di cui alla responsabilità dei “padroni” e dei “committenti”, la quale può allora trovare applicazione analogica al caso di specie [100]. Anche in questo caso, peraltro, deve sottolinearsi come si tratti, per l’appunto, di un’analogia, ove la comunanza di disciplina è giustificata da una identità di ratio e non da una “antropomorfizzazione” del software [101]. Non sembrano giustificate, allora, le riserve espresse nei confronti dell’applicabilità della norma in esame, basate sulla specifica natura “umana” del preposto [102]: se, come si è illustrato in precedenza, il comportamento del software può essere valutato su base analogica rispetto al comportamento umano, e perciò può essere posto alla base di un giudizio di illiceità del fatto, di conseguenza sarà possibile ritenere oggettivamente responsabile il preponente, ossia colui che si appropria del risultato dell’attività del software e che esercita su quest’ultimo poteri di direzione e controllo. Ancora una volta, perciò, non appaiono dirimenti le considerazioni di chi evidenzia che il software sia privo di (auto)coscienza, anima, senso morale o di piena e totale autonomia, dipendendo pur sempre dalle istruzioni di chi lo impieghi. Sotto quest’ultimo profilo, peraltro, non nuoce evidenziare come un’autonomia limitata e la soggezione al controllo e alla direzione di un soggetto sono, al contrario, i caratteri propri e giustificativi della responsabilità oggettiva dei preponenti. Da ultimo, anche la critica fondata sulla circostanza che il software non potrebbe mai rispondere in solido con il preponente (a differenza, quindi, del preposto umano), proverebbe troppo [103]: la casistica, infatti, evidenzia comunemente ipotesi in cui il preposto sia incapiente, oppure rimanga ignoto o, ancora, possa essere soggetto a un’azione di regresso solo nei limiti della colpa grave [104]. Non sembra, perciò, che l’astratta possibilità di agire nei confronti del preposto sia effettivamente un elemento necessario per applicare la responsabilità dei “padroni” e dei “committenti” [105]. All’esito di queste osservazioni, è lecito affermare che la prospettiva funzionale consenta effettivamente di fare maggiore chiarezza sui meccanismi sociali e giuridici che legano i software di guida agli umani, che da essi traggono un’utilità. Di conseguenza, accettando tale prospettiva quale premessa di carattere logico e sistematico, è possibile osservare come il fondamentale risultato pratico-applicativo consista nello strutturare il giudizio di accertamento della responsabilità in due fasi: la prima concernerebbe la verifica della sussistenza di un fatto illecito (i.e., nel caso della guida automatizzata, un fatto ex art. 2054, c 1, c.c.), da svolgersi mediante l’analisi e la valutazione della condotta del software e delle conseguenze che ne siano derivate. In caso di accertamento positivo, il secondo step avrà ad oggetto, invece, l’individuazione dei soggetti “preponenti” responsabili (ex art. 2049 c.c.) [106]. Da osservare, poi, come tali “preponenti” possano essere, allo stesso tempo, più di uno: per la sua particolare natura, infatti, il software si presta a essere il punto di convergenza di molteplici attività di controllo e di direzione, nonché a fornire utilità diverse a più soggetti contemporaneamente: si pensi ad esempio a un veicolo automatizzato, il quale venga utilizzato da Tizio per i propri spostamenti, dietro pagamento di un canone al proprietario Caio e con l’assistenza informatica fornita dalla società Alfa, la quale provveda ad aggiornare, integrare, correggere e monitorare il corretto funzionamento del software, dietro corrispettivo. Ciascuno di questi soggetti detiene una porzione di controllo e di poteri di direzione nei confronti del software, il quale diviene così “servo” di più “padroni”, ciascuno dei quali ricava un’utilità dall’impiego del sistema cibernetico. Ciò giustifica, pertanto, la loro qualificazione in termini di preponenti del software e la loro conseguente responsabilità. Soffermandosi sulla fase dell’accertamento della sussistenza del fatto illecito, occorre segnalare come i software complessi sollevino un problema innovativo e peculiare rispetto alle macchine tradizionali e alle "cose”, consistente nella possibile verificazione di eventi dannosi che siano stati cagionati nonostante il sistema abbia tenuto una condotta impeccabile sotto il profilo della diligenza, prudenza o perizia. Potrebbe darsi il caso, dunque, di un sistema di guida che cagioni un sinistro nonostante abbia tenuto una guida impeccabile e, perciò, pur avendo “fatto tutto il possibile per evitare il danno” [107]. Per quanto questo aspetto possa apparire banale, in realtà esso rischia di sollevare seri problemi applicativi qualora si adotti una prospettiva di tipo causalista: l’aver fatto tutto il possibile per evitare il danno, in tale ottica, non deve essere riferito alla condotta del software (come avverrebbe secondo la prospettiva funzionale), bensì al comportamento dei singoli umani. A ben vedere ciò potrebbe portare a esiti applicativi incerti, finanche radicalmente opposti: si potrebbe giungere, infatti, fino al punto di fondare la responsabilità (ancora una volta, dei proprietari, degli utilizzatori e/o dei produttori) sulla base del mero nesso di causalità tra la circolazione del veicolo automatizzato e l’evento, senza così distinguere i casi di guida cibernetica diligente da quelli in cui la conduzione del veicolo sia stata colposa. Allo stesso tempo, e in senso contrario, una prospettiva focalizzata sui comportamenti umani (e non su quelli cibernetici), potrebbe portare ad escludere la responsabilità in ragione dell’imprevedibilità o dell’inevitabilità delle azioni del software. In tale modo si aprirebbe la possibilità, per coloro che traggano un’utilità dall’impiego dei veicoli automatizzati, di evitare la responsabilità sfruttando la complessità e l’autonomia dei software (facendo leva, in particolare, sul caso fortuito, la forza maggiore o il rischio da sviluppo, quali ipotesi di esclusione della responsabilità). Ne conseguirebbero gravi vulnus alla tutela dei soggetti danneggiati, che a livello sistematico risulterebbe anche in contraddizione con la ratio a fondamento della responsabilità per i danni da circolazione di veicoli (la quale, appunto, pone al primo posto l’interesse delle vittime a conseguire il risarcimento) [108]. Al contrario, adottando la prospettiva funzionale e intenzionale tali problemi applicativi verrebbero meno: il giudizio di responsabilità seguirebbe le regole ordinarie in materia di danni da circolazione stradale, così evitando le possibili incongruenze sistematiche della prospettiva causalista. Anche per quanto riguarda più specificamente i criteri di valutazione della condotta, poi, il superamento del paradigma tradizionale consentirebbe una maggiore coerenza sistematica e applicativa rispetto alla casistica già nota. Come si accennava in precedenza, infatti, il modello di diligenza applicabile al sistema di guida resterebbe identico a quello riferibile al conducente umano, parametrato a un conducente medio attento e dotato di normali capacità di guida. Non sembra condivisibile, infatti, l’elaborazione di un modello di diligenza differente per i veicoli automatizzati (rectius, per gli umani coinvolti nella sua creazione o utilizzo, secondo la prospettiva causalista), che si caratterizzi, da un lato, per essere più severo in relazione alle maggiori abilità di cui il software può essere portatore e, dall’altro, per essere meno rigido in relazione a quelle che sono oggettive difficoltà tecniche cui vanno incontro i sistemi di guida [109]. Si ritiene preferibile, al riguardo, porre in evidenza come il sistema normativo prenda in considerazione, allo stato dell’arte (e salvo, comunque, sviluppi giuridici in futuro), il modello di condotta dell’uomo di media diligenza (il tradizionale “bonus pater familias”) quale criterio normativo generale di valutazione della condotta. Un paradigma che, ad oggi, viene ricostruito dalla migliore dottrina civilistica in chiave oggettiva, ossia quale confronto tra un comportamento, inteso quale dato fenomenologico, e un pattern normativo; ergo non più in termini di rimproverabilità soggettiva e psicologica [110]. Ciò consente, evidentemente, di ritenere applicabile tale modello anche a un’entità non umana, poiché rende sufficiente un’osservazione empirica e fenomenologica delle azioni da essa poste in essere, rendendo irrilevante la presenza o meno di processi cognitivi e decisionali interni, definibili come “psicologici”. Viceversa, applicare standard di diligenza specifici per i veicoli automatizzati non solo comporterebbe notevoli difficoltà applicative e interpretative (perché richiederebbe la ricostruzione di un apposito modello di comportamento per i sistemi automatizzati), ma si porrebbe anche in contrasto col sistema, il quale, appunto, è incentrato su un modello di diligenza parametrato all’uomo medio. Infine, e a fortiori, si evidenzia come la prospettiva criticata rischi di creare discriminazioni (ergo violare l’art. 3 Cost.), con riferimento sia alla riduzione della tutela per i danneggiati (che, in ipotesi, non si vedano riconosciuto un risarcimento in ragione di una minore diligenza esigibile nei confronti del software), sia alla maggiore eventuale responsabilità allocata in capo ai preponenti dei sistemi di guida (in ragione della possibile maggiore capacità di guida pretesa nei confronti dei veicoli automatizzati). Svolte le doverose premesse in merito alla ricostruzione della rilevanza giuridica del software, alla valutazione della sua condotta e, infine, ai criteri di collegamento con i soggetti giuridici rilevanti, è ora possibile esaminare nello specifico le singole posizioni di responsabilità.
Prendendo dapprima in considerazione la figura del proprietario del veicolo dotato di sistemi automatizzati di guida, il dato normativo che viene senz’altro in considerazione è ancora una volta l’art. 2054, c.c., il quale prevede che egli risponda sia per il danno cagionato dal conducente, sia per i danni verificatisi a causa di difetti di progettazione o manutenzione del veicolo. La ratio deve essere ravvisata nel ruolo di garanzia del proprietario (c.d. deep pocket) a tutela dei terzi danneggiati [111], e si giustifica in base al fatto che egli possa esercitare una forma di controllo e prevenzione sull’uso e sulla manutenzione del veicolo, oltre al fatto che dall’utilizzo (diretto o indiretto) dello stesso egli tragga godimento (cuius commoda, eius et incommoda). Ne consegue che la sua posizione venga posposta rispetto a quella del terzo danneggiato, il quale invece diviene destinatario di una tutela forte, giustificata dalla intrinseca pericolosità dell’attività di conduzione di veicoli senza rotaie. Con riguardo al risultato pratico (economico e sociale) della allocazione dei costi (i.e. dei danni) della circolazione di veicoli automatici in capo ai proprietari sono state rilevate alcune criticità in dottrina: in particolare, è stata evidenziata l’incoerenza di rendere responsabile un soggetto che non ha creato il software, né ha, di norma, un significativo potere di intervenire su di esso, soprattutto sul piano tecnico-informatico (sia per mancanza di conoscenze e strumenti tecnici, sia per limiti giuridici, derivanti dai diritti d’autore e industriali dei produttori) [112]. A queste osservazioni è possibile opporre la considerazione che il dato normativo esprime con sufficiente precisione la scelta di allocare in capo al proprietario del veicolo anche quei costi socioeconomici che pure non hanno alcuna connessione con la sua condotta, né, a fortiori, con la sua diligenza, trattandosi di una chiara fattispecie di responsabilità oggettiva [113]. L’introduzione di sistemi di guida automatizzata, pertanto, non sembra consentire una deroga al dato normativo e non evidenzia un discostamento dalla ratio che già traspare dalla disposizione [114]. Lo scopo, in altri termini, è quello della tutela dei terzi danneggiati, con una preferenza assiologica della posizione di questi rispetto a quella del proprietario, a prescindere dalla (rimproverabilità della) condotta di quest’ultimo. È possibile, allora, ritenere che il proprietario del veicolo automatizzato possa essere chiamato a rispondere sia ex art. 2049 c.c., quando eserciti una forma di controllo e di direzione sul software, sia, negli altri casi, ex art. 2054, c. 3 e 4, c.c., Peraltro, come si dirà meglio infra, nulla osta a che il proprietario possa chiamare in causa gli altri soggetti responsabili per i danni cagionati dai software di guida automatizzata [115].
A seguire, occorre ora focalizzarsi sul rapporto che lega tra loro il produttore del veicolo dotato di un sistema di guida automatizzato e quest’ultimo. Come si è anticipato, questo soggetto è destinatario di particolare attenzione da parte della dottrina, la quale spesso lo considera come il sostanziale artefice delle azioni del software, in quanto suo creatore, ergo il principale responsabile. Al tempo stesso, alcuni Autori si preoccupano di come una responsabilità eccessivamente stringente rischi di disincentivare la progettazione e la realizzazione di tecnologie che consentirebbero di raggiungere i già richiamati benefici sociali, giungendo così a interpretare il dato normativo di conseguenza [116]. Il più delle volte, comunque, la riflessione della dottrina finisce col riscontrare insufficienze del dato normativo, il quale non consentirebbe di fondare una disciplina sufficientemente responsabilizzante nei confronti del produttore, e perciò renderebbe necessario un intervento del legislatore [117]. Adottando ancora una volta la prospettiva funzionale, tuttavia, si può notare come il quadro cambi notevolmente. L’interrogativo principale, infatti, diventerebbe non tanto chi abbia prodotto originariamente il software o il veicolo, bensì chi eserciti nei confronti di esso un certo ruolo di controllo e di influenza al momento del sinistro. Detto in altri termini, la figura che viene maggiormente in rilievo, in questo caso, non sembra essere il produttore in quanto tale, bensì colui che esercita una forma di controllo sulla condotta del software, anche indirettamente, e in particolare attraverso un’azione di monitoraggio della corretta funzionalità del sistema, onde intervenire sugli eventuali errori o difetti di programmazione. In un certo senso, ciò che viene in considerazione in questo caso è ancora una volta un rapporto assimilabile a quello di “preposizione”, il quale si estrinseca in poteri e doveri di controllo e indirizzo, oltre a corrispondere a una posizione di interesse nei confronti dell’attività del software. Peraltro, occorre fare chiarezza sulla figura di tale soggetto responsabile. Si può osservare come sia ormai estremamente comune, per quanto riguarda i beni incorporanti software interconnessi, una continua attività di aggiornamento e miglioria dei programmi informatici, normalmente forniti a mezzo della connessione internet [118]. Ciò si spiega in ragione della necessità di una continua evoluzione dei software sia per motivi di sicurezza (si pensi alla problematica della cybersecurity), sia in relazione alla possibilità di mantenere una compatibilità del sistema operativo con i nuovi servizi e contenuti offerti. Spesso, poi, colui che fornisce gli aggiornamenti coincide con il produttore originario del bene digitale, evoluto e interconnesso. Quest’ultimo, dunque, tenderebbe a non venire più in considerazione (solo) per la sua sfera di controllo antecedente alla messa in circolazione del prodotto, come avviene con i prodotti di tipo tradizionale, bensì anche (e, forse, in una prospettiva evolutiva, soprattutto) per la sua attività di controllo successiva. Si può peraltro osservare come il proprietario di un bene digitale possa scegliere a un certo punto di affidare l’attività di monitoraggio e aggiornamento a un fornitore di servizi digitali diverso dal produttore originario (il quale, del resto, potrebbe anche cessare di esistere, ad esempio per fallimento dell’impresa). Questo evidenzia come la figura che viene maggiormente in rilievo non è necessariamente, come si anticipava supra, il produttore in sé, bensì un soggetto deputato a una forma di controllo effettivo sul software al momento del suo funzionamento. Il software diviene così l’oggetto e il fulcro di un rapporto di servizio che intercorre tra l’utilizzatore del prodotto digitale (nel nostro caso, in particolare, il proprietario del veicolo automatico) e il soggetto deputato al monitoraggio e all’aggiornamento del software. Quest’ultimo esercita allora un potere di controllo e di influenza sul sistema informatico, di modo che è possibile, adottando la prospettiva funzionale, riconoscere un rapporto giuridicamente rilevante con il software, analogo a quello di preposizione ex art. 2049 c.c., secondo i criteri già esaminati. Anche in questo caso, quindi, esaminata la condotta del software ai sensi dell’art. 2054, c. 1, c.c., qualora il giudizio di responsabilità dovesse risultare positivo, l’obbligazione di risarcire il danno verrebbe imputata (anche) al manutentore del software. Niente esclude, poi, che qualora quest’ultimo sia un soggetto diverso dal produttore originario, allora questi possa a sua volta essere chiamato a rispondere nei più ristretti limiti della responsabilità per i danni da prodotti difettosi, non essendo più legato da un rapporto di manutenzione e di controllo col software, che ne giustifichi l’assimilabilità a un “preponente” del sistema cibernetico [119].
Occorre ora esaminare il complesso rapporto tra il conducente o utilizzatore umano, da un lato, e il sistema di guida automatico, dall’altro. Anche in questo caso, in base alla prospettiva funzionale e intenzionale, l’umano risulterebbe qualificabile come un “preponente” del sistema di guida, e perciò risponderebbe dei danni cagionati dal software ex art. 2049 c.c. [120]. Tuttavia, occorrerebbe anche valutare se egli assuma al medesimo tempo anche la funzione di co-conducente, e quindi possa rispondere ex art. 2054, c. 1, c.c. [121]. Un primo chiarimento può essere agevolmente fornito con riguardo al caso della guida totalmente automatizzata, in cui non vi siano doveri di supervisione: in questo caso, come si è visto, l’utilizzatore del veicolo non sarebbe qualificabile come conducente, perché non svolgerebbe alcuna delle funzioni di conduzione dinamica (DDT). Da ciò deriva la non condivisibilità della tesi, secondo cui il conducente debba continuare a essere identificato con il passeggero che ha il potere di attivare o disattivare il veicolo: la sua estraneità alle operazioni dinamiche di guida, infatti, pone immediatamente in evidenza come un tale approccio si fondi, sostanzialmente, su una mera finzione giuridica, volta a imputare oggettivamente a tale soggetto delle azioni che lui non ha compiuto. Peraltro, un simile percorso argomentativo potrebbe scontrarsi col fatto che egli possa (salvo, anche in questo caso, il ricorso a ulteriori finzioni giuridiche) dimostrare agevolmente che non avrebbe potuto fare niente per evitare il danno, non avendo egli il controllo diretto del mezzo. Sarebbe, quindi, preferibile identificare il sistema di guida come l’unico conducente del veicolo completamente automatizzato, le cui azioni diventano l’esclusivo riferimento comportamentale cui applicare la valutazione normativa della condotta di guida ai sensi dell’art. 2054 c.c., secondo la prospettiva funzionale. Quanto ai casi di co-conduzione umana e cibernetica, ciò che viene in rilievo è un’attività sostanzialmente sinergica e complessa, in cui l’umano e il software controllano il veicolo contemporaneamente e in misura inversamente proporzionale l’uno rispetto all’altro [122]. Da evidenziare, comunque, come in questo caso il ruolo del co-conducente umano non si limiti all’esecuzione di quelle funzioni dinamiche di guida direttamente sotto il suo controllo, bensì sia incaricato della sorveglianza del sistema di guida, rivestendo così anche il ruolo di “preponente” del sistema informatico. In tal senso, alla sua responsabilità diretta quale conducente del veicolo, ex art. 2054, c. 1, c.c., si sommerebbe (non dissimilmente a quanto si è detto per il proprietario e per il produttore/manutentore del software) una responsabilità oggettiva e indiretta ex art. 2049 c.c. [123]. Si presti attenzione, peraltro, a come i due profili rimangano logicamente distinti, e delle conseguenze giuridiche che da ciò discendono: nei confronti dei terzi danneggiati, il conducente umano risponderà sia direttamente per fatto proprio (ex art. 2054, c. 1, c.c.), sia indirettamente, per fatto del software (ex art. 2049 c.c.) [124]. La responsabilità del (co)conducente umano, perciò, non si limiterebbe a coprire gli eventi cagionati con una propria condotta commissiva o omissiva (quest’ultima consistente nel caso in cui egli ometta di intervenire per impedire al software di cagionare danni, secondo lo schema della posizione di garanzia), bensì anche quelli cagionati dal software, salva la prova che un conducente umano, se si fosse trovato al posto del sistema automatico, non avrebbe potuto evitare il danno, coerentemente con quanto si è detto in precedenza a proposito degli altri soggetti responsabili ex art. 2049 c.c. (e salva la rivalsa nei confronti di questi ultimi, come si vedrà infra). Da notare, poi, che la responsabilità oggettiva per il fatto del software potrebbe trovare applicazione anche nei confronti del passeggero, qualora questi, anche senza essere proprietario del veicolo, ne disponesse in misura tale da poter essere considerato come un “preponente” del sistema di guida, decidendone le modalità di impiego (ad esempio un comodatario o un locatario). Differente, invece, sarebbe l’ipotesi in cui il passeggero privo di controlli dinamici o, comunque, di intervento sulla guida, si limitasse a fruire di un servizio di trasporto (come nell’ipotesi di un taxi a guida automatizzata). In questo caso, egli non potrebbe essere considerato un preponente del software.
Una delle caratteristiche peculiari e innovative dei veicoli dotati di sistemi avanzati di automatizzazione è data dall’interconnessione, ossia della possibilità di scambiare informazioni con gli altri veicoli (comunicazione veicolo-veicolo, indicata con la sigla V2V) e con le infrastrutture ad essi dedicate (comunicazione veicolo-infrastruttura, indicata con la sigla V2I), ossia le “smart road” [125]. A livello terminologico, per sottolineare questa particolare dimensione della futura mobilità, si usano i concetti di Veicoli Connessi e Autonomi (“Connected and Autonomous Veichles” – CAV) e di Sistemi di Trasporto Cooperativi Intelligenti (“Cooperative Intelligent Transport Systems” – C-ITS) [126]. Il profilo dell’interconnessione rende necessario riflettere, dunque, anche sulla posizione giuridica del gestore dell’infrastruttura. a livello di ipotesi sembrerebbe dirimente, ancora una volta, esaminare il rapporto tra questo ulteriore soggetto e il software, onde comprendere se vi sia un nesso qualificabile come “preposizione”, nei termini descritti supra. Occorrerebbe, in buona sostanza, verificare le caratteristiche concrete del servizio di mobilità smart [127], ovvero se esso si limiti alla fornitura di dati e informazioni, oppure si estrinsechi in una forma di (co-)controllo sui veicoli, mediante istruzioni “cogenti” impartite ai software di bordo. Solo in quest’ultimo caso sembrerebbe possibile affermare la sussistenza di una posizione di responsabilità nei confronti dei danneggiati dalla circolazione dei veicoli automatizzati, nelle forme già viste [128].
Un ultimo profilo relativo alla responsabilità per i danni cagionati dai software, e oggetto di molteplici analisi e preoccupazioni in dottrina, è rappresentato dal problema delle scelte etiche che stanno dietro alle azioni del software. Ci si interroga su come debba agire un sistema di guida che si trovi dinanzi a potenziali sinistri inevitabili, e che si trovi dunque costretto a decidere in merito a quali interessi sacrificare e quali, al contrario, salvare. Il caso tipico è offerto dall’esperimento mentale del c.d. “trolley problem” (letteralmente, il “dilemma del carrello”): un carrello ferroviario si trova dinanzi a un bivio senza poter frenare, e il conducente (o, in altre versioni dell’esperimento, un uomo posto ai comandi di un selettore di direzione) si accorge che in entrambi i binari sono legate delle persone, in numero differente (ad esempio, una persona sola in un binario, e cinque persone nell’altro). Il protagonista, dunque, si trova inevitabilmente a dover scegliere chi sacrificare. Analogamente, ci si chiede allora come debba essere impostato il sistema di guida in situazioni di questo tipo, posto che il software è in grado di calcolare gli eventi e assumere decisioni in tempi estremamente rapidi. In altri termini, ci si interroga su quali scelte etiche debbano essere incorporate nel software e a quali responsabilità possa portare un’impostazione eticamente riprovevole [129]. Il problema, in realtà, seppur interessante dal punto di vista etico e filosofico, sembra assai meno rilevante dal punto di vista giuridico, come osservato condivisibilmente da alcuni Autori [130]: il sacrificio di un determinato interesse a favore di un altro, proprio o altrui, nel nostro ordinamento è sostanzialmente disciplinato in due ipotesi, e cioè la legittima difesa e lo stato di necessità, e in entrambi i casi la responsabilità è esclusa. Quando si tratti di scegliere quale interesse sacrificare, dunque, l’agente potrà senz’altro assumere la decisione che ritenga eticamente più corretta, senza peraltro che questa risulti illecita sul piano giuridico. Salvare sé stessi sacrificando altri, o salvare qualcuno sacrificando un terzo, infatti, sono tutte scelte giuridicamente neutre (salvo l’ipotesi in cui si sia colposamente dato origine alla situazione di pericolo). Anche con specifico riferimento ai sistemi avanzati di guida, dunque, il problema etico della scelta dell’interesse da sacrificare (ad esempio, tra la salute dei passeggeri, quella dei pedoni o quella di altri conducenti) non ha una propria effettiva rilevanza giuridica, dal momento che l’ordinamento consente di sacrificare un interesse al fine di salvaguardarne un altro di pari livello assiologico. Inoltre, è stato condivisibilmente evidenziato come simili quesiti etici, in realtà, partano da un assunto arbitrario, in quanto presupporrebbero la prevedibilità totale e l’assoluta certezza di due eventi alternativi da parte dell’entità che si trovi a decidere su come agire. Ciò, evidentemente, appare più come un caso di scuola che come una situazione concreta, dove vi è sempre una percentuale di dubbio e di inesattezza. Ancora, è stato condivisibilmente osservato come il momento effettivamente rilevante, dal punto di vista giuridico, non sia quello in cui, ormai, qualunque scelta si riveli catastrofica, bensì quello antecedente, in cui ancora rimane aperta la possibilità di evitare il danno. È in relazione a tale fase, infatti, che può procedersi a valutare la condotta di guida e a stabilire se essa sia stata negligente [131].
Pertanto, appare corretto affrontare i problemi etici da una prospettiva di Diritto positivo, attraverso la lente dei principi e degli istituti dell’ordinamento. Ciò consente sia di cogliere l’effettiva portata teorica del problema, sia di fornire soluzioni basate sulle caratteristiche del caso concreto: il sacrificio del diritto altrui, allora, sarà giustificato se e quando le norme lo consentano (in particolare, nei casi di necessità e per legittima difesa). Gli ulteriori profili etici (come il numero o le caratteristiche delle vittime in ciascuna possibile scelta), invece, appartengono evidentemente alla sfera morale dell’agente, ma non sono giuridicamente rilevanti.
Coordinando anche queste considerazioni con una prospettiva di tipo intenzionale e funzionale, si potrà osservare come la liceità del comportamento del sistema di guida debba essere giudicata in relazione alla tutela, per quanto possibile, della salute umana; ove ciò non sia possibile e dalle diverse azioni possibili derivino comunque delle vittime, allora si valuterà se nel caso concreto siano applicabili le cause di giustificazione previste dall’ordinamento [132]. Nel fare ciò occorrerà, comunque, tenere conto del fatto che il sistema informatico, nel caso di assenza di persone a bordo del veicolo, non potrà certamente agire per tutelare sé stesso e la vettura a scapito della salute degli esseri umani all’esterno, dal momento che l’integrità psicofisica umana ha un valore assiologico senza dubbio più alto rispetto alla tutela materiale del veicolo e del software [133].
Il quadro appena delineato, ricostruito dal punto di vista dei singoli soggetti chiamati a rispondere dei danni cagionati dai sistemi automatici di guida, può essere ora osservato dal punto di vista del danneggiato, nonché nei rapporti interni tra i soggetti responsabili. Di immediata evidenza è come, secondo la prospettiva adottata, il danneggiato goda di una tutela ampia e agevole. Coerentemente con quanto già avviene in qualsiasi sinistro stradale, egli avrà sostanzialmente l’onere di dimostrare l’esistenza del danno e il nesso causale con la circolazione del veicolo, ricadendo sulle controparti l’onere di dimostrare che, nella conduzione del veicolo, sia stato fatto tutto il possibile (dal conducente, sia esso umano o software) per evitare l’evento dannoso. Nei casi di guida automatizzata, ciò significa immedesimarsi nella condotta del software di guida e dimostrare che, se un umano si fosse comportato allo stesso modo, quest’ultimo sarebbe andato esente da responsabilità (i.e. fornendo la prova liberatoria ex art. 2054, c. 1, c.c.). Nell’individuazione dei soggetti danneggiati, un profilo peculiare e innovativo della guida automatizzata consiste nel fatto che anche gli stessi co-conducenti umani o utilizzatori possano subire danni dalla condotta dei software [134]. Ciò può dare luogo a situazioni complesse, nelle quali si renda innanzitutto necessario valutare il distinto contributo causale e il grado della colpa, con riguardo sia alla condotta umana, sia a quella cibernetica; inoltre, occorrerà anche valutare il ruolo dell’utilizzatore con riguardo agli altri “preponenti”, per comprendere quale percentuale di danno (cagionato dal software) debba essergli imputata. Anche in questo caso, l’adozione di una prospettiva di tipo causalista comporterebbe serie difficoltà interpretative e rischierebbe di dare esito a soluzioni fortemente eterogenee e sbilanciate. In un’ottica tradizionale, infatti, posto che il software di guida non potrebbe essere considerato come conducente, le alternative sarebbero sostanzialmente due: o si ritiene che l’utilizzatore debba essere comunque qualificato come conducente, per il solo fatto di aver azionato il veicolo (in base a quella che supra è stata definita come una finzione giuridica), oppure lo si equipara a un mero passeggero di un veicolo privo di conducente. Nel primo caso, si potrebbe ritenere che l’utilizzatore-conducente si sia danneggiato da solo, e che dunque non abbia diritto a domandare alcun risarcimento nei confronti di altri soggetti, ossia il proprietario, il produttore o il manutentore del veicolo [135]. Alternativamente, si potrebbe ipotizzare che egli possa ugualmente agire nei confronti di questi ultimi, ritrovandosi però a dover fornire prove molto difficili, quali la difettosità (causalmente efficiente) del prodotto-veicolo oppure la riconducibilità dell’evento a una condotta del proprietario, secondo le tipologie di responsabilità già esaminate in precedenza. È evidente, dunque, che anche ammettendo astrattamente la possibilità che l’utilizzatore possa agire per ottenere un risarcimento, in concreto gli oneri probatori a suo carico potrebbero rendere estremamente difficile conseguirlo. Optando, invece, per una prospettiva di tipo funzionale, l’azione del software acquisterebbe un’autonoma rilevanza, e quindi diverrebbe possibile considerare l’utilizzatore come un soggetto (in parte) danneggiato dal sistema di guida. Il procedimento logico da seguire risulterebbe così strutturato: in primo luogo occorrerebbe soppesare il contributo causale e il grado della colpa della condotta del co-conducente, da un lato, e del software, dall’altro, al fine di valutare la porzione di danno da imputare all’utilizzatore, a titolo di concorso colposo del danneggiato (ex art. 1227 c.c.) [136]. Una volta allocata la porzione di danno astrattamente riconducibile alla responsabilità “del software”, occorrerebbe procedere a valutare la posizione dei “preponenti” del sistema di guida, tra i quali, come si è visto, rientra anche lo stesso utilizzatore. Egli, perciò, non avrà diritto al risarcimento per quella parte di responsabilità che risulti imputabile a lui stesso, per via del rapporto di preposizione nei confronti del software che lo ha danneggiato. In conclusione, l’utilizzatore potrà ottenere il risarcimento per i danni nei confronti degli altri preponenti del sistema di guida, tenuto conto sia del proprio eventuale concorso colposo, sia della propria posizione di preponente del software. Il meccanismo, per quanto complesso da valutare in concreto, appare chiaro nei suoi fondamenti teorici, e dunque consente di inquadrare con maggiore chiarezza sistematica e applicativa il fenomeno in esame, superando le incertezze della prospettiva causalista. Occorre a questo punto fare luce su un possibile dubbio relativamente alle ipotesi di guida ibrida, in cui l’utilizzatore sia anche co-conducente del veicolo. Ci si potrebbe chiedere, infatti, se sia possibile ricondurre causalmente l’evento dannoso alla sola condotta umana, escludendo una qualsiasi incidenza causale delle azioni del software, o viceversa. Si pensi, ad esempio, al caso in cui il software controlli solo la velocità, e il co-conducente umano decida improvvisamente di sterzare e scontrarsi contro un altro veicolo: si potrebbe sostenere che il sistema cibernetico non abbia avuto alcun ruolo nella verificazione del sinistro. Appare più corretto, però, considerare la conduzione del veicolo come l’insieme delle azioni umane e cibernetiche (salvo quanto si preciserà infra), dal momento che esse interverrebbero in modo necessariamente congiunto nella conduzione del veicolo, e pertanto si porrebbero tutte quali concause dell’evento [137]. Tornando all’esempio proposto poc’anzi, la sterzata avventata del conducente umano non sarebbe stata possibile senza l’apporto causale della velocità tenuta dal software, e quindi non si potrebbe procedere a separare le due azioni, le quali si fonderebbero in un unico ibrido. Si dovrebbe, quindi, considerare sempre solidalmente responsabili entrambi i co-conducenti (art. 2055, c. 1, c.c.), umano e software (rectius, il co-conducente umano e gli altri preponenti del software), a prescindere dalla concreta misura dei rispettivi contributi causali e dell’intensità della colpa. Ciò, d’altronde, appare maggiormente conforme al principio di ragionevolezza e alla ratio di tutela dei danneggiati, se si considera l’estrema difficoltà per questi ultimi di discernere e di provare l’effettivo contributo causale del software e del co-conducente umano. Quale ultimo profilo, per quanto concerne sia la tutela dei danneggiati, sia la possibilità, per le varie figure coinvolte nella responsabilità, di ristabilire un equilibrio tra i rispettivi ruoli, è opportuno evidenziare l’importanza che rivestiranno la trasparenza e l’accountability nell’analisi degli eventi di danno [138]. Il legislatore, infatti, sta gradualmente rendendo obbligatori i sistemi in grado di registrare le dinamiche dei sinistri, inclusi i dati dei sistemi di bordo [139]. È evidente, allora, che questo profilo risulterà di fondamentale importanza per cercare di descrivere innanzitutto il comportamento del software di guida automatizzata e procedere a soppesare, per quanto possibile, l’incidenza delle azioni cibernetiche rispetto a quelle umane nella dinamica del sinistro. Inoltre, a seconda della qualità dei dati raccolti sarà finanche possibile comprendere se l’eventuale malfunzionamento del software di bordo possa essere maggiormente dovuto a un difetto di progettazione, a una mancanza di manutenzione e aggiornamento o, ancora, a particolari indicazioni dell’utilizzatore, del proprietario o di un fornitore esterno di dati (come, ad esempio, il gestore di una smart road o di altri servizi di mobilità connessa). Si tratta, naturalmente, di obiettivi tendenziali e il cui raggiungimento potrebbe non essere sempre assicurato o, comunque, dotato di un alto livello di attendibilità. È possibile, dunque, che si possa permanere in una situazione di inspiegabilità o poca chiarezza dei dati disponibili (il già richiamato effetto black box). È proprio in un’eventualità del genere, tuttavia, che la prospettiva funzionale dimostrerebbe ancora una volta la sua utilità pratica: infatti, assicurata in ogni caso la tutela del danneggiato, in sede di regresso sarebbe possibile cercare di ricostruire le specifiche dinamiche del sinistro e del comportamento del software di bordo, giungendo così a ripartire le responsabilità in funzione del ruolo di ciascun soggetto responsabile (ex art. 2055, c. 2 e 3, c.c.) [140]. Di conseguenza, la rilevanza delle concause e dei ruoli di ciascun preponente emergerebbe pienamente nella fase di regresso e di ripartizione delle responsabilità, ristabilendo l’equilibrio tra i soggetti coinvolti [141]. In conclusione, per quanto riguarda i profili da ultimo trattati, si può affermare che l’insieme dei meccanismi fin qui analizzati [142] consentano di ottenere non solo una più effettiva tutela dei danneggiati, ma anche una migliore distribuzione sociale dei costi generati dalla circolazione automatizzata. Inoltre, la responsabilizzazione di tutti i soggetti coinvolti nell’impiego del software funzionerebbe da efficace incentivo affinché ciascuno di essi adotti tutte le cautele possibili per evitare ipotesi di danno. Tali risultati sistematici e applicativi sono resi possibili solo dall’adozione di una prospettiva funzionale-intenzionale nell’analisi giuridica dei sistemi informatici complessi.
Il quadro appena delineato, ricostruito dal punto di vista dei singoli soggetti chiamati a rispondere dei danni cagionati dai sistemi automatici di guida, può essere ora osservato dal punto di vista del danneggiato, nonché nei rapporti interni tra i soggetti responsabili. Di immediata evidenza è come, secondo la prospettiva adottata, il danneggiato goda di una tutela ampia e agevole. Coerentemente con quanto già avviene in qualsiasi sinistro stradale, egli avrà sostanzialmente l’onere di dimostrare l’esistenza del danno e il nesso causale con la circolazione del veicolo, ricadendo sulle controparti l’onere di dimostrare che, nella conduzione del veicolo, sia stato fatto tutto il possibile (dal conducente, sia esso umano o software) per evitare l’evento dannoso. Nei casi di guida automatizzata, ciò significa immedesimarsi nella condotta del software di guida e dimostrare che, se un umano si fosse comportato allo stesso modo, quest’ultimo sarebbe andato esente da responsabilità (i.e. fornendo la prova liberatoria ex art. 2054, c. 1, c.c.). Nell’individuazione dei soggetti danneggiati, un profilo peculiare e innovativo della guida automatizzata consiste nel fatto che anche gli stessi co-conducenti umani o utilizzatori possano subire danni dalla condotta dei software [134]. Ciò può dare luogo a situazioni complesse, nelle quali si renda innanzitutto necessario valutare il distinto contributo causale e il grado della colpa, con riguardo sia alla condotta umana, sia a quella cibernetica; inoltre, occorrerà anche valutare il ruolo dell’utilizzatore con riguardo agli altri “preponenti”, per comprendere quale percentuale di danno (cagionato dal software) debba essergli imputata. Anche in questo caso, l’adozione di una prospettiva di tipo causalista comporterebbe serie difficoltà interpretative e rischierebbe di dare esito a soluzioni fortemente eterogenee e sbilanciate. In un’ottica tradizionale, infatti, posto che il software di guida non potrebbe essere considerato come conducente, le alternative sarebbero sostanzialmente due: o si ritiene che l’utilizzatore debba essere comunque qualificato come conducente, per il solo fatto di aver azionato il veicolo (in base a quella che supra è stata definita come una finzione giuridica), oppure lo si equipara a un mero passeggero di un veicolo privo di conducente. Nel primo caso, si potrebbe ritenere che l’utilizzatore-conducente si sia danneggiato da solo, e che dunque non abbia diritto a domandare alcun risarcimento nei confronti di altri soggetti, ossia il proprietario, il produttore o il manutentore del veicolo [135]. Alternativamente, si potrebbe ipotizzare che egli possa ugualmente agire nei confronti di questi ultimi, ritrovandosi però a dover fornire prove molto difficili, quali la difettosità (causalmente efficiente) del prodotto-veicolo oppure la riconducibilità dell’evento a una condotta del proprietario, secondo le tipologie di responsabilità già esaminate in precedenza. È evidente, dunque, che anche ammettendo astrattamente la possibilità che l’utilizzatore possa agire per ottenere un risarcimento, in concreto gli oneri probatori a suo carico potrebbero rendere estremamente difficile conseguirlo. Optando, invece, per una prospettiva di tipo funzionale, l’azione del software acquisterebbe un’autonoma rilevanza, e quindi diverrebbe possibile considerare l’utilizzatore come un soggetto (in parte) danneggiato dal sistema di guida. Il procedimento logico da seguire risulterebbe così strutturato: in primo luogo occorrerebbe soppesare il contributo causale e il grado della colpa della condotta del co-conducente, da un lato, e del software, dall’altro, al fine di valutare la porzione di danno da imputare all’utilizzatore, a titolo di concorso colposo del danneggiato (ex art. 1227 c.c.) [136]. Una volta allocata la porzione di danno astrattamente riconducibile alla responsabilità “del software”, occorrerebbe procedere a valutare la posizione dei “preponenti” del sistema di guida, tra i quali, come si è visto, rientra anche lo stesso utilizzatore. Egli, perciò, non avrà diritto al risarcimento per quella parte di responsabilità che risulti imputabile a lui stesso, per via del rapporto di preposizione nei confronti del software che lo ha danneggiato. In conclusione, l’utilizzatore potrà ottenere il risarcimento per i danni nei confronti degli altri preponenti del sistema di guida, tenuto conto sia del proprio eventuale concorso colposo, sia della propria posizione di preponente del software. Il meccanismo, per quanto complesso da valutare in concreto, appare chiaro nei suoi fondamenti teorici, e dunque consente di inquadrare con maggiore chiarezza sistematica e applicativa il fenomeno in esame, superando le incertezze della prospettiva causalista. Occorre a questo punto fare luce su un possibile dubbio relativamente alle ipotesi di guida ibrida, in cui l’utilizzatore sia anche co-conducente del veicolo. Ci si potrebbe chiedere, infatti, se sia possibile ricondurre causalmente l’evento dannoso alla sola condotta umana, escludendo una qualsiasi incidenza causale delle azioni del software, o viceversa. Si pensi, ad esempio, al caso in cui il software controlli solo la velocità, e il co-conducente umano decida improvvisamente di sterzare e scontrarsi contro un altro veicolo: si potrebbe sostenere che il sistema cibernetico non abbia avuto alcun ruolo nella verificazione del sinistro. Appare più corretto, però, considerare la conduzione del veicolo come l’insieme delle azioni umane e cibernetiche (salvo quanto si preciserà infra), dal momento che esse interverrebbero in modo necessariamente congiunto nella conduzione del veicolo, e pertanto si porrebbero tutte quali concause dell’evento [137]. Tornando all’esempio proposto poc’anzi, la sterzata avventata del conducente umano non sarebbe stata possibile senza l’apporto causale della velocità tenuta dal software, e quindi non si potrebbe procedere a separare le due azioni, le quali si fonderebbero in un unico ibrido. Si dovrebbe, quindi, considerare sempre solidalmente responsabili entrambi i co-conducenti (art. 2055, c. 1, c.c.), umano e software (rectius, il co-conducente umano e gli altri preponenti del software), a prescindere dalla concreta misura dei rispettivi contributi causali e dell’intensità della colpa. Ciò, d’altronde, appare maggiormente conforme al principio di ragionevolezza e alla ratio di tutela dei danneggiati, se si considera l’estrema difficoltà per questi ultimi di discernere e di provare l’effettivo contributo causale del software e del co-conducente umano. Quale ultimo profilo, per quanto concerne sia la tutela dei danneggiati, sia la possibilità, per le varie figure coinvolte nella responsabilità, di ristabilire un equilibrio tra i rispettivi ruoli, è opportuno evidenziare l’importanza che rivestiranno la trasparenza e l’accountability nell’analisi degli eventi di danno [138]. Il legislatore, infatti, sta gradualmente rendendo obbligatori i sistemi in grado di registrare le dinamiche dei sinistri, inclusi i dati dei sistemi di bordo [139]. È evidente, allora, che questo profilo risulterà di fondamentale importanza per cercare di descrivere innanzitutto il comportamento del software di guida automatizzata e procedere a soppesare, per quanto possibile, l’incidenza delle azioni cibernetiche rispetto a quelle umane nella dinamica del sinistro. Inoltre, a seconda della qualità dei dati raccolti sarà finanche possibile comprendere se l’eventuale malfunzionamento del software di bordo possa essere maggiormente dovuto a un difetto di progettazione, a una mancanza di manutenzione e aggiornamento o, ancora, a particolari indicazioni dell’utilizzatore, del proprietario o di un fornitore esterno di dati (come, ad esempio, il gestore di una smart road o di altri servizi di mobilità connessa). Si tratta, naturalmente, di obiettivi tendenziali e il cui raggiungimento potrebbe non essere sempre assicurato o, comunque, dotato di un alto livello di attendibilità. È possibile, dunque, che si possa permanere in una situazione di inspiegabilità o poca chiarezza dei dati disponibili (il già richiamato effetto black box). È proprio in un’eventualità del genere, tuttavia, che la prospettiva funzionale dimostrerebbe ancora una volta la sua utilità pratica: infatti, assicurata in ogni caso la tutela del danneggiato, in sede di regresso sarebbe possibile cercare di ricostruire le specifiche dinamiche del sinistro e del comportamento del software di bordo, giungendo così a ripartire le responsabilità in funzione del ruolo di ciascun soggetto responsabile (ex art. 2055, c. 2 e 3, c.c.) [140]. Di conseguenza, la rilevanza delle concause e dei ruoli di ciascun preponente emergerebbe pienamente nella fase di regresso e di ripartizione delle responsabilità, ristabilendo l’equilibrio tra i soggetti coinvolti [141]. In conclusione, per quanto riguarda i profili da ultimo trattati, si può affermare che l’insieme dei meccanismi fin qui analizzati [142] consentano di ottenere non solo una più effettiva tutela dei danneggiati, ma anche una migliore distribuzione sociale dei costi generati dalla circolazione automatizzata. Inoltre, la responsabilizzazione di tutti i soggetti coinvolti nell’impiego del software funzionerebbe da efficace incentivo affinché ciascuno di essi adotti tutte le cautele possibili per evitare ipotesi di danno. Tali risultati sistematici e applicativi sono resi possibili solo dall’adozione di una prospettiva funzionale-intenzionale nell’analisi giuridica dei sistemi informatici complessi.
Con la riflessione che ci si accinge a concludere si è tentato di esaminare e affrontare le problematiche sollevate dai veicoli a guida automatizzata, procedendo dapprima a ricostruire le caratteristiche tecnologiche per poi valutarne la specifica rilevanza giuridica. Si è così potuto osservare come il rapporto tra l’uomo e la macchina rappresenti un filo rosso capace di guidare nell’interpretazione e nella qualificazione giuridica dei fenomeni cibernetici, ove i sistemi informatici complessi sono in grado di riprodurre i comportamenti umani mediante una sfera di autonomia sempre più ampia e incisiva. Al fine di fornire una adeguata mediazione giuridica ai problemi della responsabilità civile, oggetto specifico della presente trattazione, è stata proposta e valutata, alla luce degli interessi coinvolti e delle implicazioni pratiche, una prospettiva di tipo intenzionale e funzionale, o cibernetica, in base alla quale il software cessa di essere un mero strumento passivo, per assumere invece il ruolo di ausiliario e sostituto degli umani. La bussola che si è cercato di utilizzare per valutare l’idoneità di una tale prospettiva è stata calibrata in ragione dell’interpretazione sistematica delle norme vigenti e dell’individuazione degli interessi coinvolti e meritevoli di tutela: si è così proceduto a soppesare le posizioni coinvolte e a salvaguardare in primis la posizione del danneggiato, senza però sacrificare le sfere di interessi dei soggetti coinvolti a vario titolo nell’utilizzo e nella realizzazione dei sistemi automatici di guida [143]. Il risultato è stato quello di valorizzare la portata interpretativa delle disposizioni vigenti, senza dar luogo a vuoti di tutela o lacune normative – le quali, invece, tendono a emergere qualora si adotti una prospettiva tradizionale, di tipo causalista e strumentale, sulla rilevanza giuridica dei software complessi – e realizzando così un equilibrato bilanciamento delle differenti posizioni giuridiche. A ciò si aggiungono, peraltro, il valore sistematico e l’efficacia pratica della continuità nel regime giuridico applicabile alla circolazione di veicoli manuali ed automatizzati, senza dunque creare condizioni di discontinuità nel dato normativo [144].
[1] Per un’analisi approfondita sull’evoluzione storico-sociale dell’automobile e sugli effetti presenti e futuri delle nuove tecnologie si veda, in particolare, l’opera di G. CALABRESI, E. AL MUREDEN, Driverless Cars: Intelligenza artificiale e futuro della mobilità, Bologna, 2021.
[2] V. COMMISSIONE EUROPEA, Verso la mobilità automatizzata: una strategia dell’UE per la mobilità del futuro, COM(2018) 283 final, in cui si dedica ampio spazio alle prospettive di sviluppo, sotto molteplici aspetti, legate alla diffusione di veicoli automatizzati. In dottrina v. M.C. GAETA, Automazione e responsabilità civile automobilistica, in Responsabilità civile e previdenza, 5, 2016, 1718 ss.
[3] M. BADAGLIACCA, L’evoluzione della politica europea dei trasporti nell’ottica dello sviluppo sotenibile e dell’integrazione dei trasporti, in Giureta, 2013, 165 ss., F. PELLEGRINO, Sviluppo sostenibile dei trasporti marittimi comunitari, Milano, 2010. Da non escludere, in tal senso, una possibile rilevanza anche del principio di sostenibilità ambientale (oggi fornito di copertura costituzionale) con riferimento alla diffusione di tecnologie che possano avere un impatto ambientale positivo.
[4] S. VANTIN, Automobili a guida autonoma: un’inedita opportunità per le persone con disabilità fisiche? In S. SCAGLIARINI, Smart roads e driverless cars: tra diritto, tecnologie, etica pubblica, Torino, 2019, 55 ss.
[5] F.P. PATTI, The European road to autonomous veichles, in Fordham International Law Journal, 43, 125 ss., riassume i tre principali nodi relativi alla responsabilità civile derivante dall’impiego di automobili a guida automatizzata: individuare chi debba farsi carico del rischio dei danni, stabilire le modalità di regolazione della responsabilità civile e individuare gli interessi da proteggere.
[6] Vedasi il documento SAE INTERNATIONAL, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, Warrendale, 2021 (la prima versione risale al 2014), disponibile gratuitamente al sito www.sae.org. La classificazione in esame è stata ripresa anche da molteplici organismi istituzionali, tra cui l’HNTSA (National Highway Traffic Safety Administration, U.S.A.), dall’European Road Transport Research Advisory Council (ERTRAC), organismo riconosciuto dalla Commissione Europea (v. il documento Automated Driving Roadmap (2015), disponibile al sito www.ertrac.org), nonché da quest’ultima: v. COMMISSIONE EUROPEA, Verso la mobilità automatizzata, cit., passim. A seguire nel corso del paragrafo, le informazioni di natura tecnica saranno ricavate dal sopra citato documento di SAE International.
[7] Come si vedrà, il rapporto uomo-macchina e la rispettiva ripartizione dei compiti rappresenta uno dei fili rossi della tematica in esame.
[8] Sul piano metodologico sembra dunque opportuno (se non necessario) conoscere in modo chiaro le tecnologie di cui si tratta, poiché ciò diviene propedeutico alla ricostruzione della rilevanza giuridica di determinate loro caratteristiche: v., in tal senso, anche S. PELLEGATTA, Automazione nel settore automotive: profili di responsabilità civile, in Contratto e Impresa, 2019 4, 1418 ss.
[9] Per una panoramica sintetica sui sistemi di assistenza alla guida v. S. PELLEGATTA, ibid.
[10] Il sistema ESP è stato introdotto obbligatoriamente per tutti i veicoli di nuova omologazione dal 2011 e per quelli di nuova immatricolazione dal 2014 dal Regolamento CE/661/2009.
[11] Tale terminologia, tuttavia, secondo la SAE International peccherebbe di eccessiva ampiezza e imprecisione, potendosi riferire sia a certi sistemi di livello 0 che ad altri di livello 1 di automazione (come l’active cruise control, di cui si dirà infra), quindi non avrebbe un’effettiva valenza tecnica: v. SAE INTERNATIONAL, Taxonomy and Definitions, cit., 31.
[12] Il sistema ESP è stato introdotto obbligatoriamente per tutti i veicoli di nuova omologazione dal 2011 e per quelli di nuova immatricolazione dal 2014 dal Regolamento CE/661/2009. In seguito, il Regolamento UE/2019/2144 ha introdotto, per i veicoli immatricolati dal 7 luglio 2022, l’assistenza intelligente sulla velocità, il controllo sugli ostacoli in retromarcia mediante videocamera o sensori, i segnali di allerta in caso di distrazione o stanchezza del conducente, i sistemi di registrazione dei dati sulla guida e sui sinistri, i dispositivi di cybersicurezza, i segnali di frenata d’emergenza, la frenata d’emergenza automatica, l’assistenza per il mantenimento della corsia e, per i veicoli pesanti, i rilevatori di ostacoli e oggetti per i punti ciechi. Tra I sistemi di sicurezza passiva, poi, è stata introdotta la chiamata di emergenza automatica (eCall) per i veicoli immatricolati dal 31 marzo 2018 in poi, con Regolamento UE/758/2015. Su questi profili è possibile consultare la voce Vehicle Safety and automated/connected vehicles nel sito https://single-market-economy.ec.europa.eu/, tenuto dalla Commissione Europea.
[13] Appare efficace l’espressione usata da S. PELLEGATTA, Automazione nel settore automotive, cit., 1418 ss., che si riporta per una maggiore chiarezza: “(I sistemi di guida assistita, ndr.) agevolano il controllo (manuale) del veicolo da parte del conducente, senza però avere la pretesa di sostituirsi ad esso. Tali sistemi infatti non assumono il controllo del veicolo, ma si limitano ad assistere la persona che in quel momento è alla guida della macchina”.
[14] Si veda, in tal senso, la definizione di “veicolo a guida automatica” contenuta nel d.m. 28/02/2018 del MIT, all’art. 1, lett. f), dove si evidenzia come: “(…) Non è considerato veicolo a guida automatica un veicolo omologato per la circolazione sulle strade pubbliche italiane secondo le regole vigenti e dotato di uno o più sistemi di assistenza alla guida, che vengono attivati da un guidatore al solo scopo di attuare comportamenti di guida da egli stesso decisi e che comunque necessitano di una continua partecipazione attiva da parte del conducente alla attività di guida”.
[15] SAE INTERNATIONAL, Taxonomy and definitions, cit., 6: “Active safety systems are vehicle systems that sense and monitor conditions inside and outside the vehicle for the purpose of identifying perceived present and potential dangers to the vehicle, occupants, and/or other road users, and automatically intervene to help avoid or mitigate potential collisions via various methods, including alerts to the driver, vehicle system adjustments, and/or active control of the vehicle subsystems (brakes, throttle, suspension, etc.)”.
[16] SAE INTERNATIONAL, Taxonomy and definitions, cit., 28: “(The) driving automation system (if any) does not perform any part of the DDT on a sustained basis (although other vehicle systems may provide warnings or momentary emergency intervention)”.
[17] La descrizione dei sistemi rientranti nel livello di automazione zero è molto chiara nel documento ERTRAC, Automated Driving Roadmap. V. anche M.C. MARQUÈS, Vehiculos autonomos y semiautonomos, in AA.VV., Inteligencia Artificial: Tecnologia y Derecho, Valencia, 2017, 101 ss. Per una descrizione sintetica si rinvia anche a AA.VV., ADAS: cosa sono e quali sono i più importanti, in www.alvolante.it
[18] S. PELLEGATTA, Automazione nel settore automotive, cit., 1418 ss.
[19] Osserva S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss., che una rilevanza crescente potrebbe essere rivestita dalle azioni esperite dai conducenti, danneggiati da difetti dei sistemi di guida.
[20] Il discorso, comunque, si presta a diventare più articolato in relazione alle emergenti criticità della disciplina della responsabilità da prodotto difettoso, in particolare con riferimento al problema della prova liberatoria della non conoscibilità del difetto in base alle conoscenze scientifiche e tecniche esistenti al momento della messa in circolazione del bene (art. 118, c. 1, lett. e)): in tal senso, v. F.P. PATTI, The European road, cit., 137 ss. Trattandosi di una questione specificamente attinente alla ricostruzione di tale fattispecie di responsabilità, nonché alle proposte de jure condendo volti a eliminarne i “difetti”, in questa sede ci si limita a segnalare la potenziale estensione della sua portata applicativa, rinviando a contributi più specifici in materia.
[21] F.P. PATTI, The European road, cit., 137 ss., in particolare, ravvisa condivisibilmente le possibili ragioni della scarsa rilevanza della responsabilità del produttore nell’ambito della r.c.a. innanzitutto nel fatto che la vittima possa già agevolmente tutelarsi domandando il risarcimento all’assicurazione del veicolo danneggiante. A quel punto, l’azione contro il produttore acquista una sua importanza nel momento in cui è l’assicurazione stessa a intraprendere un’azione in rivalsa nei suoi confronti. A seguire, si aggiunge la difficoltà nel dimostrare l’esistenza del difetto (soprattutto in un prodotto ad alta complessità tecnica) e il nesso causale tra difetto e danno.
[22] Si ritiene condivisibile, dunque, l’osservazione di RUFFOLO U., AL MUREDEN E., Intelligenza Artificiale e diritto – Autonomous veichles e responsabilità nel nostro sistema ed in quello statunitense, in Giur. It., 2019, 7, 1657 ss., nella parte in cui rilevano che i sistemi automatici di supporto alla guida (quali quelli appena descritti) non comportino una novità sul piano qualitativo, rispetto al panorama tecnologico e giuridico già esistente. Viceversa, come si vedrà infra, non sembra sostenibile quanto sostenuto dagli stessi Autori in relazione a livelli di automatizzazione superiori, i.e. quando affermano che “(…) l’auto self-driving rappresenti un incremento quasi esclusivamente quantitativo, e non qualitativo, della automazione nella guida”. Come si vedrà subito infra, infatti, vi sono ragioni sia di ordine tecnico che giuridico che portano a sostenere il contrario. In senso analogo agli Autori citati si esprime C. INGRATOCI, Autonomous veichles in smart roads: an integrated management system for road circulation, in Diritto dei Trasporti, 2020, 501 ss.
[23] Coerentemente con l’impostazione tecnica di SAE International, il d.m. n. 70 del 28 febbraio 2018 del MIT (c.d. decreto “smart road”, sul quale v. anche infra) definisce il “veicolo a guida automatica” come “un veicolo dotato di tecnologie capaci di adottare e attuare comportamenti di guida senza l’intervento attivo del guidatore, in determinati ambiti stradali e condizioni esterne” (art. 1, lett. f)), e le “tecnologie di guida automatica” come “le tecnologie innovative per la guida automatica basate su sensori di vario tipo, software per l’elaborazione dei dati dei sensori e l’interpretazione di situazioni nel traffico, software di apprendimento, software per assumere decisioni d guida e per la loro attuazione, componenti per l’integrazione con il veicolo tradizionale, che rientrano nell’oggetto della sperimentazione su strada di cui al presente decreto”.
[24] La terminologia relativa alla classificazione dei sistemi di automatizzazione, comunque, resta foriera di sovrapposizioni (come si vedrà anche in seguito); perciò si cercherà di specificare al meglio possibile i termini tecnici, cui si riferiscono specifiche caratteristiche delle tecnologie in questione, cercando anche di ovviare il più possibile alle difficoltà di traduzione e ai limiti della varietà lessicale disponibile.
[25] Mantenendo la metodologia già proposta in precedenza, si procederà ora a descrivere i driving automation systems da un punto di vista tecnico, per poi esaminare i profili giuridici, a partire dalla normativa tecnica per poi affrontare il nodo principale della trattazione, ossia la responsabilità civile.
[26] V. ERTRAC, Automated driving, cit., 8; M.C. MARQUÈS, Vehiculos autonomos, cit., 105.
[27] Il primo veicolo omologato dotato di sistemi di liv. 3 è prodotto da Mercedes (Classe S e EQS) e, al momento, può circolare solo in Germania in virtù della normativa interna che lo consente: v. F. PESCE, Record Mercedes: omologato il primo sistema di guida autonoma di livello 3, in Repubblica.it, Roma, 2021. disponibile su www.Repubblica.it
[28] SAE International descrive la DDT fallback come “The response by the user to either perform the DDT or achieve a minimal risk condition (1) after occurrence of a DDT performance-relevant system failure(s), or (2) upone operational design domain (ODD) exit, or the response by an ADS to achieve minimal risk condiion, given the same circumstances”: v. SAE INTERNATIONAL, Taxonomy and definitions, cit., 10.
[29] Si noti come vi possono essere sistemi di livello inferiore programmati in modo da far fermare il veicolo in caso di mancata risposta del conducente umano (ossia, di mancato compimento delle operazioni di “fallback”). Ciò si distingue nettamente, tuttavia, dalla capacità di condurre automaticamente il veicolo in una posizione sicura (una cosa è limitarsi a fermare il veicolo, un’altra è raggiungere una posizione di sicurezza).
[30] In questo modo è possibile azionare contemporaneamente più veicolo da remoto, privi di un conducente/sorvegliante a bordo. Si pensi a una flotta di taxi, operanti in una città dotata di infrastrutture idonee alla circolazione autonoma di veicoli di liv. 4. Senza spingersi troppo oltre, comunque, la dispatching entity potrebbe essere anche una persona che ordini al proprio veicolo di andare a parcheggiarsi autonomamente, per poi richiamarlo a sé al momento del bisogno.
[31] Ad ogni modo, non corrisponde alla definizione di veicolo di liv. 5 data da SAE International l’assunto, riportato da alcuni Autori, secondo cui esso non sarebbe affatto conducibile in modalità manuale, neanche potenzialmente, essendo sprovvisto di comandi manuali. In realtà, secondo SAE International è ben possibile che il passeggero umano decida di disattivare il sistema, assumendo il ruolo di “driver”: v. SAE INTERNATIONAL, Taxonomy and definitions, cit., 29. Vero è, però, che il software potrebbe non consentire al passeggero di assumere direttamente il controllo del veicolo qualora ciò non possa avvenire in sicurezza.
[32] La natura necessariamente “umana” del conducente ai sensi della Convenzione non sembra discutibile, posto che esso deve “possedere le qualità fisiche e psichiche necessarie ad essere in stato fisico e mentale atto a condurre” (art. 8, c. 3), nonché “avere le cognizioni e l’abilità necessarie per la guida del veicolo” (art. 8, c. 4); caratteristiche, queste, che non appaiono ragionevolmente riferibili a un sistema informatico. Ad ogni modo, posto che la ratio della normativa in questione consiste nell’individuare i requisiti necessari affinché un veicolo possa circolare legalmente, non sembra che essa sia d’ostacolo alla prospettiva ermeneutica che verrà proposta infra al fine di ricostruire lo specifico profilo della responsabilità civile, mediante l’assimilazione analogica del software a un (co)conducente del veicolo.
[33] Nel senso che quest’ultima previsione dell’art. 8, c. 5-bis rappresenti una “clausola aperta” che permetterebbe alla Convenzione di adeguarsi automaticamente alle future disposizioni UNECE v. A. DI ROSA, Il legal framework internazionale ed europeo, in Smart Roads e driverless cars: tra diritto, tecnologie, etica pubblica, a cura di S. SCAGLIARINI, Torino, 2019, 65 ss. Non sembra condivisibile, peraltro, quanto sostenuto dallo stesso A. in relazione ai veicoli di liv. 4, ossia che essi non sarebbero consentiti, in quanto strumenti di guida completamente automatici: come si è visto, infatti, anche al liv. 4 il software può (e, anzi, in caso di necessità deve) essere disattivato; pertanto, l’umano può riprendere il diretto controllo del veicolo.
[34] Emendamento alla Convenzione di Vienna del 14 dic. 2020, entrato in vigore dal 14 lug. 2022.
[35] D. CERINI, Dal decreto Smart Roads in avanti: ridisegnare responsabilità e soluzioni assicurative, in Danno e responsabilità, 2018, 4, 401 ss.
[36] V. la già richiamata COMMISSIONE EUROPEA, Verso la mobilità automatizzata, cit., e, inoltre, la Risoluzione del Parlamento Europeo del 15 gennaio 2019 sulla guida autonoma nei trasporti europei (2018/2089(INI)). Altri atti normativi rilevanti, anche se non specificamente relativi alla mobilità connessa e automatizzata, verranno di volta in volta richiamati infra. Per quanto concerne, invece, l’iter di elaborazione della disciplina europea DELL’IA, per il quale non è possibile dedicare un’apposita trattazione in questa sede, v. L. M. LUCARELLI TONINI, L’IA tra trasparenza e nuovi profili di responsabilità: La nuova proposta di “AI liability directive”, in Diritto dell’Informazione e dell’Informatica, 2023, 2, 327 ss.
[37] Per quanto riguarda l’analisi delle normative introdotte nel diritto interno di altri paesi, che in questa sede non è possibile analizzare dettagliatamente, si rinvia, ad esempio, a: F.P. PATTI, The European road, cit., 131 ss., e M.M. COMENALE PINTO, E. G. ROSAFIO, Responsabilità civile per la circolazione degli autoveicoli a conduzione autonoma. Dal Grande Fratello al Grande Conducente, in Diritto dei Trasporti, 2019, 368 ss.
[38] La disposizione in questione, infatti, autorizza “la sperimentazione su strada delle soluzioni di Smart Road e di guida connessa e automatica. A tale fine, entro trenta giorni dalla data di entrata in vigore della presente legge, con decreto del Ministro delle infrastrutture e dei trasporti, sentito il Ministro dell’interno, sono definiti le modalità attuative e gli strumenti operativi della sperimentazione”. Relativamente alla disciplina in questione si vedano S. SCAGLIARINI, La sperimentazione su strada pubblica dei veicoli autonomi: il “decreto smart road”, in Smart Roads e driverless cars: tra diritto, tecnologie, etica pubblica, a cura di ID., Torino, 2019, 15 ss.
[39] Per un’analisi dettagliata dei requisiti e del procedimento di autorizzazione si rinvia alla lettura del testo del decreto, oltre ai contributi di S. SCAGLIARINI, La sperimentazione su strada pubblica, cit., 15 ss., e di A. DI ROSA, Il legal framework, cit., 65 ss.
[40] Appare ormai in parte superata, dunque, la definizione di veicolo di cui all’art. 46, c. 1, C.d.S., la quale resterebbe ancorata a una guida puramente manuale: “(…) si intendono per veicoli tutte le macchine di qualsiasi specie, che circolano sulle strade guidate dall’uomo”. Si vedano anche le disposizioni di cui agli artt. 140 ss., nel cui senso letterale imporrebbero un controllo sempre diretto del veicolo da parte del conducente, e che ormai devono essere interpretate sistematicamente, alla luce delle più recenti disposizioni che consentono la circolazione di veicoli a guida automatizzata.
[41] Non sembra condivisibile, perciò, la tesi di chi ritiene che la nozione di veicolo non possa ricomprendere anche quelli a guida automatizzata, sulla base del solo dato letterale delle disposizioni del C.d.S.
[42] Sulla necessaria riflessione preliminare in merito alla nozione di conducente per poter verificare l’applicabilità dell’art. 2054 c.c. v. S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss., S. POLLASTRELLI, Driverless cars: i nuovi confini della responsabilità civile automobilistica e prospettive di riforma, in La decisione nel prisma dell’Intelligenza Artificiale, a cura di E. CALZOLAIO, Padova, 2020, 103 ss., R. LOBIANCO, Veicoli a guida autonoma e responsabilità civile: regime attuale e prospettive di riforma – I parte, in Resp. civ. e prev., 2020, 3, 724 ss., e ID., Veicoli a guida autonoma e responsabilità civile: regime attuale e prospettive di riforma – II parte, in Resp. civ. e prev., 2020, 4, 1080 ss.
[43] Cass. 7 novembre 1976, n. 4568, in Resp. Civ. prev., 1977, 316; v. anche S. POLLASTRELLI, Driverless cars, cit., 108. Parallelamente, il concetto giuridico di “conduzione” ricomprenderebbe “quel complesso di attività che concorrono a far si che un veicolo si muova da un punto ad un altro, seguendo un determinato percorso, con l’osservanza delle norme di comportamento previste dal codice della strada e di quelle di comune prudenza, secondo regole tecniche di guida ben definite e rese necessarie dalle circostanze che via via si presentino”; “(…) la conduzione di un veicolo non si esaurisce nella manovra dei comandi ma comprende anche una serie di operazioni psichiche (sia di natura cognitiva sia di natura volitiva), che vanno dalla scelta del percorso, alla velocità da tenere, alla scelta della marcia e così via, dalle quali dipendono non solo le manovre da eseguire ma anche la scelta contingente di una di esse rispetto ad un’altra ritenuta meno idonea con riferimento allo stato di fatto esistente in quel momento” (Cass. civ. n. 11296/1992).
[44] V., in tal senso, R. LOBIANCO, Veicoli a guida autonoma e responsabilità civile, cit., 724 ss., S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss., G. RUSSO, La responsabilità civile auto nell’era digitale. Inapplicabilità dell’art. 2054 c.c. e re-interpretazione dell’attuale assetto normativo, in Actualidad Juridica Iberoamericana, 2023, 18, 1218 ss.
[45] Appare condivisibile, salvo quanto si vedrà meglio infra, il punto di vista di S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss.: “Elemento chiave per una distinzione in termini giuridici dei due fenomeni (guida assistita e guida autonoma, ndr.) ritengo sia allora piuttosto da ravvisare nella sussistenza (o meno) di un perdurante ed effettivo potere di controllo sul veicolo in capo al driver”.
[46] Un’ipotesi simile di mantenimento della qualifica (e della responsabilità) del conducente è offerta dal caso dell’istruttore di guida: “La norma (art. 83 C.d.S., ndr) pone a carico dell’istruttore non solo un obbligo di intervento verbale, ma prevede anche che lo stesso possa intervenire materialmente sui comandi, naturalmente nei limiti in cui ciò sia possibile” (Cass. civ. n. 11296/1992). V. anche Cass. civ. n. 6049/1990 (la quale evidenzia il profilo del concorso causale della condotta dell’istruttore di guida e dell’allievo) e Cass. civ. n. 10121/2011. Inoltre, si può considerare anche come la qualifica di conducente non cessi di essere rivestita neppure quando la vettura sia in sosta: v. Cass. 4568/1976 e, in dottrina, per tutti, M.M. COMENALE PINTO, E. G. ROSAFIO, Responsabilità civile per la circolazione degli autoveicoli, cit., 368 ss.
[47] La responsabilità ex art. 2054 c.c., infatti, viene ricondotta dalla giurisprudenza e da parte della dottrina nell’alveo della responsabilità per esercizio di attività pericolose: v. Cass., SS. UU., n. 8620 del 29 aprile 2015; v. anche G. BENELLI, Auto a guida autonoma: profili di responsabilità civile e prospettive di riforma, in Diritto dei trasporti, 2019, 351 ss.,
[48] In tal senso v. anche S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss.
[49] Sembra dunque possibile ritenere superate certe perplessità espresse, ad esempio, da LOBIANCO R., Veicoli a guida autonoma e responsabilità civile, cit., 724 ss., il quale sostiene che dal liv. 4 di automazione in poi sarebbe “(…) complesso immaginare come un obbligo siffatto di prevenzione unilaterale del sinistro (ossia quello ex art. 2054, c. 1, c.c., ndr) possa essere assolto e soprattutto provato da un soggetto che, concretamente, non sarà né tenuto a vegliare sulle prestazioni della vettura né probabilmente in grado di riassumerne il controllo in caso di necessità”. Al contrario, si sottolinea come sia il legislatore a stabilire che vi debba essere un supervisore del veicolo, al quale non è consentito distrarsi. Ciò non toglie, comunque, come in concreto si possa bilanciare il ruolo assunto dal software con quello dell’umano e da ciò farne derivare conseguenze in punto di ripartizione di responsabilità, come verrà evidenziato infra. In buona sostanza, ciò che le norme vigenti non consentono di escludere è l’esistenza in sé di una posizione di garanzia in capo a chi deve sorvegliare il sistema di guida, il quale dunque allo stato attuale non può essere qualificato come un mero passeggero. In conclusione, su questo aspetto, si può osservare in chiave comparatistica come anche in altri ordinamenti siano state introdotte disposizioni specifiche per mantenere la qualità di conducente in capo a un umano, onde imporre a suo carico doveri di controllo o supervisione sul software di guida, e le conseguenti responsabilità. È il caso, ad esempio, dell’ordinamento tedesco: v. M.G. LOSANO, Verso l’auto a guida autonoma in Italia, in Diritto dell’Informazione e dell’Informatica, 2019, 2, 423 ss.
[50] S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss., LOBIANCO R., Veicoli a guida autonoma e responsabilità civile, cit., 724 ss.
[51] V. in particolare la posizione, già richiamata, di LOBIANCO R., ibid., che fa riferimento a un umano privo di concreti doveri di intervento. Pone in luce il problema dell’individuazione del conducente (ovvero se si tratti dell’umano o del software) anche G. BENELLI, Auto a guida autonoma, cit., 362.
[52] Ad esempio, S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss., parla di “soggetto trasportato”; propone il ricorso alla qualifica di “utilizzatore” LOBIANCO R., Veicoli a guida autonoma e responsabilità civile, cit., 724 ss.; esclude la presenza di un conducente del veicolo dotato di automazione superiore al livello 2 G. RUSSO, La responsabilità civile auto nell’era digitale, cit., 1218 ss., il quale su tale base sostiene l’inapplicabilità per i danni cagionati da tali veicoli dell’art. 2054 c.c.
[53] Il paragone col passeggero del taxi è proposto anche da LOBIANCO R., Veicoli a guida autonoma e responsabilità civile, cit., 724 ss.; sembra ricondurre in ogni caso al ruolo di un mero passeggero colui che utilizzi il veicolo automatizzato M.C. GAETA, Automazione e responsabilità civile, cit., 1726.
[54] La conseguenza, dunque, per alcuni sembra essere quella di ritenere applicabile l’art. 2054 c.c. al solo proprietario del veicolo (e alle figure ad esso assimilate): così S. POLLASTRELLI, Driverless cars, cit., 109 ss.; per altri, invece, come si vedrà, la norma cesserebbe del tutto di essere applicabile, rendendo necessaria l’introduzione di specifiche nuove norme.
[55] V., ad esempio, M. TAMPIERI, L’intelligenza artificiale: una nuova sfida anche per le automobili, in Contratto e Impresa, 2020, 2, 732 ss., la quale sostanzialmente identifica l’utilizzatore del veicolo driverless come un conducente, il quale però rimane estraneo alla dinamica del veicolo; per tale ragione, secondo l’A., nei suoi confronti dovrebbe trovare applicazione solo l’art. 2054, c. 4, c.c., e non il c. 1. È appena il caso di evidenziare, comunque, come la tecnica adottata dal legislatore italiano con il d.m. 70/2018 si allontani dalla prospettiva appena descritta: la normativa, infatti, non si limita a stabilire che vi sia un soggetto (“supervisore”) che risponda dei danni (e che in questa sede abbiamo qualificato anche come “conducente”, ai sensi del c.c.), ma ha disposto espressamente che egli svolga delle effettive funzioni di controllo sul veicolo. Non una mera fictio iuris, pertanto, bensì la definizione positiva di un concreto ruolo di sorveglianza, riconducibile al concetto di conduzione.
[56] Così F.P. PATTI, The European road, cit., 136, e G. TEUBNER, Responsabilità civile per i rischi della digitalità, in SMART: la persona e l’infosfera, a cura di U. SALANITRO, Pisa, 2022, 13 ss.
[57] Il problema si ripropone, pur con caratteristiche proprie, anche nell’ambito delle navi e degli aeromobili dotati di sistemi di navigazione automatizzata: v. C. SEVERONI, Preliminary remarks on the legal regulation of the unmanned vessels, in Rivista di Diritto dell’Economia, dei Trasporti e dell’Ambiente, 2020, 17, 61 ss.
[58] Esemplare in tal senso l’approccio di M. D’AMBROSIO, AI e ruolo dell’interprete, in Tecnologie e diritto, 2023, 2, 275 ss., il quale assume una posizione marcatamente causalista e distingue due ipotesi: i danni causati dal software conseguentemente a scelte illecite degli umani, da un lato, e i danni cagionati da errori della macchina, che la portino ad agire diversamente da quanto voluto dall’uomo. Per una più ampia disamina di questa prospettiva “tradizionale” e per un confronto con la materia del contratto si rinvia a V. CAREDDA, Intelligenze artificiali e contratti, in Il lavoro attraverso piattaforme digitali tra rischi e opportunità, a cura di P. LOI, Napoli, 2021, 259 ss.
[59] G. TEUBNER, Responsabilità civile per i rischi della digitalità, cit., 13 ss., parla a proposito di “rischio di autonomia”. Si evidenzia come il termine black box è ambiguo, in quanto indica sia il caso di un processo decisionale informatico non spiegabile a posteriori, sia il caso della “scatola nera” comunemente nota, ossia sostanzialmente un hard disk che raccoglie i dati di navigazione al fine di ricostruire ex post la dinamica di un sinistro.
[60] Rendono efficacemente l’idea della complessità dell’agere dei software complessi G. F. SIMONINI, L’intelligenza artificiale guida le nostre vetture. Profili di responsabilità, Modena, 2018, 88 G. COMANDÉ, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, in F. DI CIOMMO, O. TROIANO, Giurisprudenza e Autorità Indipendenti nell’epoca del diritto liquido, Piacenza, 2018, 1001 ss.
[61] Le difficoltà in cui incorre questa prospettiva di tipo tradizionale emergono chiaramente dal quadro delineato da V. CAREDDA, Intelligenze artificiali e contratti, cit. 259 ss.
[62] V. U. RUFFOLO, Intelligenza artificiale ed automotive: le responsabilità da veicoli self-driving e driverless, in Intelligenza artificiale. Il diritto, i diritti, l’etica, a cura di ID., Milano, 2020, 153 ss.
[63] Così F. SIMONINI, L’intelligenza artificiale guida le nostre vetture, cit., 61. Cfr., invece, U. RUFFOLO, ibid., secondo cui l’applicazione dell’art. 2050 c.c. potrebbe comunque giustificarsi in ragione di picchi di pericolosità asimmetrica, dovuti ai limiti intrinseci dei software, che spesso li rendono ancora inadatti ad agire in situazioni che richiedono capacità adattive e pensiero laterale, e che per gli umani risultano più semplici da comprendere e affrontare. In questo modo, secondo l’A., risulterebbe “solo apparente la contraddizione tra minore pericolosità generale, e generica, del veicolo autonomo e al tempo stesso più elevata pericolosità specifica, idonea a consentire il ricorso al regime di responsabilità aquiliana per attività pericolosa”. Ad ogni modo, la tesi dell’A. si espone alle criticità di base dell’approccio causalista e strumentale, come si vedrà meglio infra. Sembra più corretto, dunque, ricostruire l’attività di guida automatizzata come pericolosa, sì, ma riferendola al punto di vista del sistema di guida (e quindi applicando l’art. 2054 c.c., che rappresenta, appunto, un’ipotesi peculiare di responsabilità per attività pericolosa), e non ai produttori, ai proprietari o agli utilizzatori dei veicoli.
[64] U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 153 ss., e ID., Self-driving car, auto driverless e responsabilità, in Intelligenza artificiale e responsabilità, a cura di ID., Milano, 2017, 31 ss.; v. anche G. RUSSO, La responsabilità civile auto nell’era digitale, cit., 1218 ss.
[65] Appaiono degne di nota le considerazioni espresse in merito da C. DELLA GIUSTINA, P. DE GIOIA CARABELLESE, Il futuro dell’assicuratore nei rischi legali dei veicoli automatici. Unmanned veichles, trolley problem and data protection, in Riv. Trim. Dir. Proc. Civ., 2023, 4, 1235 ss.
[66] V. CAREDDA, Intelligenze artificiali e contratti, cit. 259 ss.
[67] Così, nelle opere poc’anzi menzionate, U. RUFFOLO, ibid.
[68] Infatti, lo stesso A. ricostruisce la logica sottesa alla responsabilità dello schiavo secondo il ben più adatto schema dell’art. 2049 c.c., che, come si vedrà infra, sembra essere la norma più adatta per ricostruire il rapporto uomo-macchina nel caso dei sistemi informatici complessi.
[69] Oltre agli Autori già richiamati, si v., ad esempio, A. DAVOLA, R. PARDOLESI, In viaggio col robot: verso nuovi orizzonti della r.c. auto (“driverless”)?, in Danno e Responsabilità, 5, 2017, 616 ss., R. LOBIANCO, Veicoli a guida autonoma e responsabilità civile: regime attuale e prospettive di riforma – I parte, in Resp. civ. e prev., 2020, 3, 724 ss., II, ID., Veicoli a guida autonoma e responsabilità civile: regime attuale e prospettive di riforma – II parte, in Resp. civ. e prev., 2020, 4, 1080 ss.
[70] In relazione al problema di come rapportare la nozione di difetto alle peculiari caratteristiche dei software complessi v. U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 163.
[71] Su tale difficoltà v., per tutti, A. DAVOLA, R. PARDOLESI, In viaggio col robot, cit., 625. Altre problematiche, invece, sembrano più facilmente risolvibili in via ermeneutica, come la possibilità di invocare la responsabilità del creatore dell’algoritmo in qualità di produttore di una componente del prodotto finale: v. U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 159 ss.
[72] Così U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 164 ss., il quale ritiene che il cumulo delle due ipotesi di responsabilità possa consentire di superare alcune criticità applicative della responsabilità da prodotto difettoso, come quella dell’esimente da rischio da sviluppo.
[73] Appare perciò condivisibile l’affermazione di L. ARNAUDO, R. PARDOLESI, Ecce robot. Sulla responsabilità dei sistemi adulti di intelligenza artificiale, in Danno e responsabilità, 2023, 4, 409 ss., secondo cui “le soluzioni generalmente proposte tradiscono un gusto, se non antiquario, fortemente condizionato dall’inveterata abitudine a concepire la responsabilità, rispetto al danno – secondo le circostanze: imprevisto, sistemico, collaterale – prodotto della macchina, come ricerca dell’imputazione ottimale in capo a chi quella macchina ha fabbricato, acquistato o comunque utilizzato”.
[74] V., in tal senso, la concezione del Market Enterprise Responsibility, proposta da G. CALABRESI, E. AL MUREDEN, Driverless cars, cit., 150 ss.
[75] V. per esempio A. DAVOLA, R. PARDOLESI, In viaggio col robot, cit., 616 ss., e M. RATTI, Riflessioni in materia di responsabilità civile e danno cagionato da dispositivo intelligente alla luce dell’attuale scenario normativo, in Contratto e Impresa, 2020, 3, 1174 ss. Sembra il caso di avvertire, tuttavia, che un’eccessiva fiducia in simili meccanismi di socializzazione dei danni non solo potrebbero non abbattere i costi e non incentivare lo sviluppo tecnologico, dal momento che di fatto essi finirebbero comunque per spalmarsi indirettamente in via alternativa (imposizioni sui produttori, incremento dei costi di vendita o di assicurazione), ma altresì non rappresenterebbero un vero incentivo alla realizzazione di sistemi di guida più sicuri, poiché i frequenti “danni anonimi” finirebbero sempre con l’essere “scaricati” sul fondo pubblico, in questo modo non promuovendo un incremento della sicurezza nella realizzazione nell’uso delle tecnologie.
[76] Cfr. G. CALABRESI, E. AL MUREDEN, Driverless cars, cit., 130 ss. In senso critico nei confronti di un metodo che si incentri eccessivamente sulle ragioni di natura etica e socioeconomica, trascurando così l’obiettivo della coerenza sistematica, v. U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 154.
[77] Sul ruolo del giurista nel rapportarsi con l’evoluzione storica e sociale v. P. PERLINGIERI, Il Diritto Civile nella legalità costituzionale, II, Napoli, 2020, 278 ss.
[78] Sembra opportuno, peraltro, mettere in guardia dal rischio che l’intenzione di “governare” il fenomeno tecnologico (soprattutto sul piano economico e produttivo) distolga l’interprete dal suo ruolo, portandolo a guidare l’interpretazione secondo ciò che egli ritenga più opportuno sul piano politico, piuttosto che in base ai dati normativi esistenti. Da ciò deriva la possibilità di ravvisare lacune ogni qualvolta il dato normativo non rispecchi il proprio quadro ideale (non sembra un caso, perciò, la diffusa tendenza ad appellarsi al legislatore), oppure il rischio di invertire il processo motivazionale, cioè di ricostruire il processo logico in funzione del risultato auspicato, e non, al contrario, ricavare il risultato mediante argomentazioni propriamente giuridiche. Cfr. A. ALBANESE, Mobilità del futuro e funzione preventiva della responsabilità civile, in Europa e Diritto Privato, 2023, 2, 439 ss.
[79] Pone l’accento sulla necessità di ricorrere in primo luogo all’interpretazione sistematica e alla valorizzazione della capacità di mediazione giuridica delle disposizioni esistenti U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 153 ss.
[80] Si può anche ricordare (v. supra) come lo stesso legislatore europeo stia, in questo momento, rinunciando a intervenire direttamente sulla regolamentazione della responsabilità civile in ambito di IA e di sistemi informatici complessi, al fine di dare la precedenza alla coerenza sistematica interna di ciascun ordinamento.
[81] Si v. il più volte citato rapporto di SAE International, dove si evidenzia a vari livelli e intensità come il software assuma il controllo di determinate funzioni dinamiche di guida
[82] V., per esempio, le definizioni relative alla guida automatizzata contenute nel d.m. 70/2018
[83] V., per esempio, S. PELLEGATTA, automazione nel settore automotive, cit., 1418 ss.: l’A. giunge condivisibilmente ad osservare come “Effettivamente a condurre la macchina provvede la macchina stessa, ovvero più precisamente il sistema automatico. Sul piano fattuale tale assunto difficilmente può essere revocato in dubbio. Si potrebbe allora concludere nel senso di ritenere che il conducente diventi lo stesso sistema automatico”; tuttavia, lo stesso A. esclude tale conclusione, in quanto associa necessariamente la qualifica di conducente alla titolarità della soggettività giuridica, poiché ritiene che la normativa vigente identifichi necessariamente il conducente come una persona fisica. Conseguentemente, dal momento che a suo parere “detta “personificazione” della macchina non può allo stato però essere attuata”, egli non prende in considerazione strade interpretative differenti, quale quella proposta in questa sede, che prende le mosse dall’analisi funzionale e intenzionale dei sistemi complessi.
[84] Non è possibile, in questa sede, dedicare apposito spazio ai problemi dell’IA e alle eventuali intersezioni con il tema dei veicoli autonomi. Posto che non è stata ancora adottata una normativa europea sull’IA (attualmente in fase di approvazione), appare prioritario concentrarsi sulle disposizioni vigenti, mantenendo un approccio tecnologicamente neutro.
[85] L’orientamento che si andrà ora a descrivere trova tra i suoi massimi fautori G. TEUBNER, Ibridi ed attanti. Attori collettivi ed enti non umani nella società e nel diritto, Milano, 2015, ID., Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, trad. a cura di P. FEMIA, Napoli, 2019, il quale ha elaborato una complessa teoria sociologica e giuridica sulla soggettività degli agenti software autonomi (ASA): questa si fonderebbe sulle capacità comunicative dei sistemi complessi (non solo i software, ma anche gli enti) e sulla loro personificazione sul piano sociale, che consentirebbe loro di compiere atti giuridicamente rilevanti ed efficaci, assurgendo così a una (parziale) soggettività giuridica. In questa sede, peraltro, sembra sufficiente esaminare quanto più strettamente attinente alla valutazione dei “comportamenti” dei software complessi al fine del solo giudizio sulla responsabilità civile per il loro impiego. Per quanto concerne la soggettività degli ASA e la loro capacità di compiere atti (e, soprattutto, negozi) giuridici, dunque, si rinvia alle opere dell’Autore.
Di fondamentale importanza anche le teorie filosofiche di DENNETT D., The Intencional stance, Cambridge, 1989, il quale ha teorizzato la possibilità di osservare i sistemi sociali complessi mediante l’attribuzione di stati intenzionali e cognitivi e la rinuncia a un’analisi di tipo fisico o progettuale che intenda ricostruire i precisi processi decisionali interni al sistema.
Altri Autori che adottano una prospettiva convergente sono S. CHOPRA, L. WHITE, A Legal Theory for Autonomous Artificial Agents, Ann Arbor, 2011, G. SARTOR, Gli agenti software: nuovi soggetti del ciberdiritto?, in Contratto e impresa, 2002, 2, 465 ss., ID., L’intenzionalità dei sistemi informatici e il diritto, in Rivista trimestrale di diritto e procedura civile, Milano, 2003, 1, L. B. SOLUM, Legal Personhood for Artificial Intelligence, in North Carolina Law Review, Van Hecke-Wettach Hall, 1992, 4, 1239 ss., M. LOOS, Machine-to-Machine Contracting in the Age of the Internet of Things, in AA.VV., Contracts for the Supply of Digital Content: Regulatory Challenges and Gaps, Oxford, 2017, 59 ss.
[86] Sul tema dell’autonomia dei sistemi software complessi e per una panoramica delle differenti tesi ricostruttive si rinvia a V. CAREDDA, Intelligenze artificiali e contratti, 259 ss.
[87] G. TEUBNER, Soggetti giuridici digitali?, cit., 46 ss.
[88] La cibernetica, secondo la voce enciclopedica Treccani (consultabile su www. Treccani.it) è la “Disciplina che si occupa dello studio unitario dei processi riguardanti «la comunicazione e il controllo nell’animale e nella macchina» (secondo la definizione di N. Wiener, 1947): partendo dalle ipotesi che vi sia una sostanziale analogia tra i ‘meccanismi di regolazione’ delle macchine e quelli degli esseri viventi e che alla base di questi meccanismi vi siano processi comunicazione e di analisi di informazioni, la c. si propone da un lato di studiare e di realizzare macchine ad alto grado di automatismo, atte a sostituire l’uomo nella sua funzione di controllore e di pilota di macchine e di impianti, e dall’altro lato, inversamente, di servirsi delle macchine anzidette per studiare determinate funzioni fisiologiche e dell’intelligenza”. Per uno studio sull’impiego dei sistemi cibernetici in ambito contrattuale si v. anche F. BRAVO, Contrattazione telematica e contrattazione cibernetica, Milano, 2007, 170 ss.
[89] G. TEUBNER, Soggetti giuridici digitali?, cit., 46 ss.
[90] In tal senso v. anche G. F. SIMONINI, L’intelligenza artificiale guida le nostre vetture, cit., 61. Sulla nozione oggettiva di colpa (che consente l’applicazione del modello di comportamento dell’uomo medio anche a un’entità non umana, come il software) si rinvia all’autorevole opera si S. RODOTÀ, Il problema della responsabilità civile, Milano, 2023 (ristampa), 164 ss.
[91] Così pervenendo al risultato auspicato, peraltro, da U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 153 ss., pur seguendo un percorso interpretativo e sistematico differente da quello di tale Autore.
[92] A una possibile obiezione, secondo la quale i software non sarebbero in grado di orientarsi in funzione delle regole giuridiche di diligenza, si può replicare che le condotte conformi sono il risultato di una programmazione e di un utilizzo che di tali regole deve tenere conto. È nel momento della creazione e dell’utilizzo dei software, dunque, che avviene l’incorporazione delle regole giuridiche nei loro pattern comportamentali (mediante la traduzione dei precetti astratti nel loro risultato empirico, i.e. le condotte conformi, che vengono perciò impartite al software). Come si vedrà meglio infra, il mancato rispetto delle regole da parte del sistema comporta, peraltro, la responsabilità di chi su di esso ha esercitato, a vario, titolo, una forma di controllo o preposizione. Il rispetto delle regole giuridiche, dunque, diventa una necessità per chi è in grado di orientare l’azione del sistema informatico. Sul punto v. anche L.B. SOLUM, Legal Personhood for Artificial Intelligence, cit., 1239 ss.
[93] V., per tutti, L. B. SOLUM, Legal Personhood for Artificial Intelligence, cit., 1239 ss., 1281 e G. TEUBNER, Soggetti giuridici digitali?, cit., passim.
[94] È dunque possibile ritenere irrilevanti gli argomenti di tipo morale, filosofico e metafisico che, secondo l’opposto orientamento, si opporrebbero al riconoscimento di una forma di autonomia e/o soggettività giuridica dei software complessi, quali la mancanza di un’anima, del libero arbitrio o dell’autocoscienza (e a prescindere dalle personali credenze in relazione a tali argomenti). Cfr. la posizione del filosofo J.R. SEARLE, Minds, brains, and programs, in Behavioural and Brain Sciences, 1980, 3, secondo cui i software non sono dotati di autocoscienza e comprensione di sé stessi e di ciò che “fanno”, ma sono costruiti per associare delle reazioni a degli input, secondo quanto stabilito dai programmatori. Non sarebbe dunque possibile, secondo l’A., ascrivere loro una sfera di autonomia rispetto agli umani. Il punto dirimente, però, è che agli scopi che qui ci si prefigge non appare necessario che l’entità osservata sia effettivamente autocosciente o dotata di altri requisiti psicologici, metafisici o morali: ci si accontenta della ben più modesta osservazione empirica esterna, onde risolvere un mero problema di regolamentazione giuridica. Dal momento, poi, che non si tratta qui di equiparare la macchina all’umano sul piano morale (come se si volesse elevare il software allo status di un “feticcio”, o comunque di un ente moralmente personificato e dotato di proprie tutele morali), non sembra che la prospettiva qui descritta entri in contrasto con il principio personalistico alla base dell’ordinamento e al primato giuridico-morale dell’essere umano.
[95] Una prospettiva che riconosca il ruolo del software come conducente del veicolo sembra essere stata effettivamente adottata dal legislatore britannico, il quale, al par. 2 della legge “Automated and Electric Veichles Act 2018” parla di incidenti cagionati dai veicoli autonomi mentre si guidano da soli (“an accident is caused by an automated vehicle when driving itself”); v. F.P. PATTI, The European road, cit., 135. Si può osservare come tale legge pone la responsabilità per i danni cagionati dalla guida automatizzata in capo all’assicuratore del veicolo, compiendo così una scelta che supera il problema della prospettiva causalista, ma che (a sommessa opinione di chi scrive) non consentirebbe di valorizzare il ruolo degli umani che controllano o comunque traggono vantaggio dall’impiego dei software complessi, non valorizzando così l’effettiva natura dei software quali assistenti digitali.
[96] Cfr., ad esempio, G. TADDEI ELMI, G.F. ROMANO, Il robot tra ius condendum e ius conditum, in Informatica e diritto, 2016, Napoli, 1, 128, i quali ritengono che attribuire una sfera di autonomia o anche una soggettività ai software integri sostanzialmente un’opera di finzione, perché i veri agenti rimarrebbero pur sempre gli umani.
[97] La tesi più autorevole è quella di G. TEUBNER, Soggetti giuridici digitali?, cit., passim. In questa sede, peraltro, appare ultronea una specifica riflessione su una parziale capacità giuridica dei sistemi complessi, dal momento che qui si sta meramente discutendo del tema della responsabilità per i danni e non della più delicata questione attinente al compimento di atti giuridici.
[98] Sibillina la definizione di C.M. BIANCA, Diritto Civile, IV, La Responsabilità, Milano, 2019, 737: “Il rapporto di preposizione è il rapporto mediante il quale un soggetto (preponente) si appropria dell’attività altrui (preposto)”. Lo stesso A. identifica poi nel potere di direzione il discrimen tra il rapporto di preposizione (fondante la responsabilità in esame) e altre relazioni, nelle quali il soggetto agente sia dotato di piena autonomia decisionale e organizzativa (come avviene, normalmente, nel mandato e nell’appalto). Queste ultime, infatti, non consentono di imputare, in capo al beneficiario finale dei risultati dell’attività svolta da un altro soggetto, una responsabilità oggettiva per i fatti illeciti commessi da quest’ultimo nell’ambito della propria organizzazione.
[99] Ravvisa il fondamento della responsabilità ex art. 2049 c.c. nell’unione della ratio utilitaristica con quella di garanzia nei confronti delle vittime M. COMPORTI, Fatti illeciti: le responsabilità oggettive. Artt. 2049-2053, Milano, 2009, 79 ss.
[100] G. SARTOR, Gli agenti software, cit., 465 ss.; S. CHOPRA, L. WHITE, A Legal Theory for Autonomous Artificial Agents, cit., 127 ss.: gli A., che scrivono con riferimento agli ordinamenti di common law, prendono come modello il principio del respondeat superior, ossia la responsabilità di un soggetto preponente per il fatto del preposto, analoga al disposto dell’art. 2049 C.C.; G. TEUBNER, Soggetti giuridici digitali?, cit., 86 ss.
[101] Vi possono essere, pertanto, considerazioni specificamente riferibili solo ai preposti umani, come ad esempio l’elemento dell’imputabilità ex art. 2046 c.c., fondato sulla specifica condizione di incapacità di intendere e di volere dell’essere umano. Peraltro, va sottolineato come sia discussa, in generale, l’applicabilità dell’art. 2046 c.c. a favore anche del preponente: in senso affermativo, per tutti, v. C.M. BIANCA, Diritto Civile, cit., 737 ss.; in senso negativo, invece, v. F. GALGANO, I fatti illeciti, Padova, 2008, 94.
[102] In tal senso, v. ad esempio M.A. BIASOTTI, F. ROMANO, M.T. SAGRI, La responsabilità degli agenti software per i danni prodotti a terzi, in Informatica e diritto, 2002, 2, 165, G. TADDEI ELMI, Soggettività artificiali e diritto, in Altalex – Quotidiano di informazione giuridica, 2006, e in particolare U. RUFFOLO, Le responsabilità da artificial intelligence, algoritmo e smart product: per i fondamenti di un diritto dell’intelligenza artificiale self-learning, in Intelligenza artificiale. Il diritto, i diritti, l’etica, a cura di ID., Milano, 2020, 116, secondo il quale: «Risulta, dunque, difficile identificare la eadem ratio con riguardo all’ipotesi di danni cagionati dall’operato di agenti non umani per “difetto” della loro “intelligenza artificiale”, dal momento che l’art. 2049 C.C. responsabilizza il committente per una specifica ipotesi di fallibilità del (dell’intelligenza del) suo “commesso”, ossia il compimento di un “fatto illecito”, il cui elemento soggettivo è specificamente ragguagliato alla natura umana di quella intelligenza. Laddove, per contro, le entità non umane non parrebbero in grado di compiere comparabili “illeciti” o di porre in essere comportamenti dolosi o colposi strettamente intesi».
[103] Si v. la posizione di M. RATTI, Riflessioni in materia di responsabilità civile, cit., 1174 ss., secondo cui l’applicazione dell’art. 2049 c.c. presupporrebbe la sussistenza di una responsabilità solidale del preposto, il quale risponde con il proprio patrimonio del danno cagionato a terzi. Pertanto, il software, essendo sprovvisto di un patrimonio, non potrebbe ricoprire la stessa posizione giuridica del preposto (coerentemente, l’A. apre alla possibilità che in futuro si possa prevedere la costituzione di un patrimonio riferibile al dispositivo, il che aprirebbe all’applicabilità della norma in esame).
[104] C.M. BIANCA, Diritto Civile, cit., 737 ss.; sull’applicabilità dell’art. 2049 c.c. anche al caso del “danno anonimo”, ossia quando il preposto non risulti individuabile, v. F. GALGANO, I fatti illeciti, cit., 94.
[105] Peraltro, come si vedrà in seguito, se da un lato è vero che il danneggiato non potrà aggredire il patrimonio del preposto cibernetico, come potrebbe fare invece nei confronti di un lavoratore umano, dall’altro lato tendono a essere presenti più “preponenti” del software, il che estende notevolmente la garanzia patrimoniale.
[106] Appare utile richiamare ancora una volta, quale posizione più autorevole e illuminante, quella di G. TEUBNER, Responsabilità civile per i rischi della digitalità, cit., 13 ss. (v. inoltre le altre opere dell’A., già citate).
[107] Il problema del rapporto tra il verificarsi di un evento dannoso cagionato dal veicolo automatizzato e l’effettiva sussistenza di una responsabilità (la quale, invero, non è affatto scontata e non può ritenersi in re ipsa) è segnalato in un certo senso anche da F.P. PATTI, The European road, cit., 143: l’A. si interroga se l’incidente cagionato dal veicolo autonomo a seguito di una decisione scorretta del software possa di per sé dimostrare l’esistenza di un difetto del sistema di guida, dando luogo alla responsabilità del produttore. Cfr., invece, A. ALBANESE, La responsabilità civile per i danni da circolazione di veicolo ad elevata automazione, in Europa e Diritto Privato, 2019, 4, 995 ss., il quale rifiuta l’equiparazione del funzionamento della macchina al comportamento di un ausiliario e opta per l’applicabilità dell’art. 2051 c.c., rischiando però di incorrere nelle criticità esaminate supra.
[108] Non va sottovalutata, inoltre, la grave difficoltà cui andrebbe incontro il danneggiato anche sul piano probatorio: la prospettiva causalista renderebbe necessario ricostruire di volta in volta le vicende “interne” alla sfera della conduzione del veicolo (al quale, peraltro, il danneggiato è estraneo): occorrerebbe, infatti, di fornire la prova relativa alla specifica posizione del conducente, del proprietario o del produttore, i quali tutti potrebbero riuscire a “sfilarsi” dalla responsabilità per i danni qualora non fosse effettivamente raggiunta una prova di chi di loro debba risponderne.
[109] V. L. D’AMICO, Intelligenza Artificiale e auto a guida autonoma. Tra prevenzione primaria, colpa penale e rischio consentito, in Rivista Italiana di Medicina Legale, 2022, 3, 593 ss., la quale, adottando una prospettiva di tipo causalista e strumentale, riferisce lo standard di diligenza alla condotta del produttore, anziché all’attività di conduzione del veicolo (deputata al software); preferibile l’impostazione di F.P. PATTI, The European road, cit., 145 ss., il quale sostiene l’importanza di far valere il criterio di diligenza basato sull’umano di media diligenza, quale primo riferimento da assumere anche nei confronti della guida automatizzata, in particolare fin quando la circolazione stradale sarà mista (veicoli manuali e automatizzati). Se e quando, invece, vi sarà una circolazione puramente automatizzata, allora sarà possibile considerare standard più elevati.
[110] S. RODOTÀ, Il problema della responsabilità civile, cit., 164 ss.
[111] A. DAVOLA, R. PARDOLESI, In viaggio col robot, cit., 620.
[112] V., per tutti, R. LOBIANCO, Veicoli a guida autonoma, cit., 724 ss.
[113] In relazione alla responsabilità del proprietario anche per i vizi di costruzione, eventualmente in solido col produttore del veicolo, v. M. W. MONTEROSSI, Responsabilità da prodotto difettoso e circolazione dei veicoli: la risarcibilità del danno in assenza di sinistro stradale, in Danno e Responsabilità, 2020, 2, 235 ss.: la ratio risiede, appunto, nella prevalente esigenza di tutela dei terzi in relazione a un fenomeno di attività pericolosa, quale la conduzione di veicoli.
[114] V. anche G. VOTANO, La responsabilità da circolazione stradale nella fase di transizione dai veicoli tradizionali alle auto a guida automatica, in Danno e Responsabilità, 2019, 3, 330 ss.: l’A. ritiene che la posizione di responsabilità del proprietario sarà quella che verrà maggiormente in evidenza nella fase in cui circoleranno contemporaneamente veicoli manuali e automatizzati, soprattutto per via dell’obbligo assicurativo a suo carico.
[115] Una chiosa aggiuntiva in relazione alla posizione del proprietario del veicolo può essere svolta con riferimento all’obbligo assicurativo gravante su di lui. Alcuni Autori, come F.P. PATTI, The European road, cit., 136 ss., e D. CERINI, Dal decreto Smart Roads in avanti, cit., 406 ss. suggeriscono, infatti, che tale obbligo dovrebbe essere spostato in capo ai produttori dei veicoli a guida automatizzata, in quanto soggetti che eserciterebbero un controllo maggiore sul software, nonché un maggiore contributo causale in merito alle azioni di esso, ergo dovrebbero essere coloro che sopportano i costi assicurativi (anche in questo caso emergerebbe la prospettiva di tipo causalista o strumentale). In realtà, non nuoce evidenziare come il proprietario del veicolo resti colui che, in ultima istanza, ne decida l’ambito e la quantità di impiego in termini di tempo e spazio, nonché, in ultima battuta, colui che ricava una maggiore utilità diretta dal suo utilizzo. Non sembra errato, allora, continuare a porre tali costi assicurativi a suo carico, considerando anche che il costo del premio potrebbe variare in base proprio alle concrete modalità di utilizzo che egli realizzi. Sembra condivisibile, perciò, la posizione espressa da C. DELLA GIUSTINA, P. DE GIOIA CARABELLESE, Il futuro dell’assicuratore nei rischi legali dei veicoli automatici, cit., 1235 ss., al cui contributo si rinvia anche al fine di osservare come la scelta di mantenere l’obbligo assicurativo in capo al proprietario del veicolo automatizzato sia stata fatta propria dal legislatore britannico con l’Automated and Electric Veichle Act 2018. Infine, si sottolinea come la prospettiva intenzionale e funzionale consenta anche in questo di valorizzare il ruolo e la responsabilità del proprietario, quale “preponente” del sistema di guida.
[116] V., per esempio, le considerazioni poste da G. CALABRESI, E. AL MUREDEN, Driverless cars, cit., passim.
[117] V. R. LOBIANCO, Veicoli a guida autonoma, cit., 1080 ss.
[118] Nell’ambito dei rapporti tra venditori professionisti e acquirenti consumatori, la recente normativa sui beni dotati di elementi digitali, di cui agli artt. 128 ss., cod. cons., ha finanche previsto un obbligo del venditore a tenere informato il consumatore sugli aggiornamenti disponibili, e a fornirglieli. A quel punto, sarà onere di quest’ultimo provvedere all’installazione, in assenza della quale il venditore non potrà essere chiamato a rispondere dei danni cagionati dalla mancata conformità dei beni, derivante dal mancato aggiornamento.
[119] Si può notare, dunque, come la prospettiva intenzionale consenta anche di superare certe difficoltà applicative e certi limiti che deriverebbero da un’impostazione tradizionale, quale la più rigida disciplina della responsabilità da prodotto difettoso. Proprio questi limiti, peraltro, continuerebbero a essere giustificati in relazione a un produttore che non abbia più un rapporto di controllo con il software. Se si condivide la ricostruzione proposta, non sembra allora nemmeno necessario tutelare la posizione del produttore mediante la limitazione del danno risarcibile, in un’ottica di bilanciamento tra le esigenze di produzione e diffusione dei veicoli automatizzati, da un lato, con la tutela di interessi fondamentali della persona, dall’altro lato, come proposto da RUFFOLO U., AL MUREDEN E., Intelligenza Artificiale e diritto – Autonomous veichles, cit., 1657 ss. Ad ogni modo, non sembra neppure fondata la preoccupazione di tali Autori di voler consentire il progresso tecnologico e sociale attraverso la limitazione della sfera di responsabilità dei produttori (rectius, dei manutentori, se si accoglie quanto detto fin qui): in primo luogo, perché, al contrario, la priorità del sistema in materia di circolazione stradale sarebbe (a giudicare dalla ratio dell’art. 2054 c.c.) la piena tutela dei danneggiati; in secondo luogo, perché, se è vero che i veicoli automatizzati sono destinati a cagionare meno danni, allora non si comprende per quale motivo debba essere necessario ridurre i margini della responsabilità civile derivante dalla produzione e dall’impiego di tali mezzi.
[120] Il rapporto uomo-software, dunque, assumerebbe in questo caso i tratti di quello tra preponente e autista-lavoratore subordinato, richiamato anche da U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 158.
[121] Nel senso che si tratti di finzione v. anche F.P. PATTI, The European road, cit., 136. V. anche F. DE VANNA, Autonomous driving e questione della responsabilità: alcuni nodi teorici, in Smart Roads e driverless cars: tra diritto, tecnologie, etica pubblica, a cura di S. SCAGLIARINI, Torino, 2019, 84, ritiene che “In Italia, il sotto-sistema di responsabilità configurato dall’art. 2054 c.c., con l’aggravamento dell’onere della prova a carico del conducente, sarebbe decisamente incoerente con un sistema di circolazione completamente automatizzata che, per definizione, non consente al pilota d’incidere sul software che regola la guida del veicolo”; ancora, A. DAVOLA, R. PARDOLESI, In viaggio col robot, cit., 616 ss., sostengono che “nel contesto delle driverless car, l’attuale formulazione della norma si rivela profondamente inefficiente, in quanto pone l’onere del rischio di un incidente in capo ad un soggetto (il conducente), il quale non ha gli incentivi – o, meglio, i mezzi – per ridurre la probabilità del verificarsi dello stesso”.
[122] Un parallelo interessante all’interno dell’ordinamento può essere offerto dall’art. 483 cod. nav., dove la colpa è riferita alla nave, quale entità unitaria che riassume al suo interno l’insieme delle azioni del comandante, dell’equipaggio e dell’armatore: “Se l’urto è avvenuto per colpa di una delle Navi, il risarcimento dei danni è a carico della nave in colpa”. Nel caso del veicolo a guida ibrida (i.e. mista umana e cibernetica) sembra parimenti utile – e, visto il dato normativo richiamato, anche sistematicamente coerente con le logiche già presenti nell’ordinamento – riferirsi alla conduzione del veicolo quale attività unitaria, frutto dell’insieme delle azioni umane e cibernetiche. Ciò non elimina, comunque, la possibilità di far valere il peso delle rispettive attività in sede di regresso (v. infra).
[123] Un paragone interessante è offerto da RUFFOLO U., AL MUREDEN E., Intelligenza Artificiale e diritto – Autonomous veichles, cit., 1657 ss.: la situazione descritta, infatti, non si allontanerebbe qualitativamente da quella dei veicoli a trazione animale, in cui il conducente risponde sia per fatto proprio (ex art. 2054 c.c.), sia come custode dell’animale (ex art. 2052 c.c.). Nel caso in esame, l’intelligenza “animale” viene sostituita da quella “artificiale”, e però i tratti giuridicamente rilevanti rimangono assimilabili: la conduzione del veicolo è affidata a due entità distinte, e quindi due profili di responsabilità ricadono in capo al co-conducente umano. Si può evidenziare, peraltro, come nel caso dell’animale non si poneva il problema dei danni cagionati nonostante l’adozione di tutte le cautele necessarie; comportamento, questo, che non ci si può attendere da un animale ma da un software sì.
[124] In questo senso egli risponderà cumulativamente con gli altri preponenti del sistema di guida, i.e. proprietario e produttore/manutentore. Nei confronti di questi ultimi soggetti, tuttavia, la distinzione tra i due profili di responsabilità assume un’importanza cruciale, dal momento che di essa si terrà conto nell’allocazione “interna” delle responsabilità tra i diversi soggetti coinvolti. Tale aspetto verrà approfondito infra.
[125] Secondo l’art. 2, c. 1, d.m. 70/2018, le “smart road” sono “le infrastrutture stradali per le quali è compiuto, secondo le specifiche funzionali di cui all’articolo 6, comma 1, un processo di trasformazione digitale orientato a introdurre piattaforme di osservazione e monitoraggio del traffico, modelli di elaborazione dei dati e delle informazioni, servizi avanzati ai gestori delle infrastrutture, alla pubblica amministrazione e agli utenti della strada, nel quadro della creazione di un ecosistema tecnologico favorevole all’interoperabilità tra infrastrutture e veicoli di nuova generazione”.
[126] Si tratta del profilo che efficacemente G. TEUBNER, Responsabilità civile per i rischi della digitalità, cit., 13 ss. ha definito “rischio di interconnessione”. Sul tema si v. anche R. LOBIANCO., Veicoli a guida autonoma e responsabilità civile, cit., 724 ss.; per una trattazione specifica sul tema dell’interconnessione tra smart veichles e smart roads v. C. INGRATOCI, Autonomous veichles in smart roads, cit., 501 ss., e anche D. CERINI, Dal decreto Smart Roads in avanti, cit., 401 ss., il quale pone anche l’accento sul problema del “rischio spaziale”, ossia sul profilo della rete satellitare, cui saranno collegati i veicoli smart.
[127] Sul rapporto contrattuale tra gestore dell’infrastruttura e utilizzatore del veicolo v. C. INGRATOCI, Autonomous veichles in smart roads, cit., 514, che qualifica il gestore della smart road come un “service provider”.
[128] Pur con prospettive differenti, evidenzia l’attribuzione di responsabilità (anche) in capo al fornitore del servizio della rete anche U. RUFFOLO, Intelligenza artificiale ed automotive, cit. 170 ss.
[129] Altri spunti di riflessione in tema di etica degli algoritmi, dei quali in questa sede non è possibile dare pienamente conto, sono spesso attinti dalle famose opere di I. Asimov: v. M. TAMPIERI, L’intelligenza artificiale, cit., 732 ss.
[130] G.F. SIMONINI, L’intelligenza artificiale guida le nostre vetture, cit., 70 ss., U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 153 ss.
[131] Così G.F. SIMONINI, L’intelligenza artificiale guida le nostre vetture, cit., 70 ss.
[132] In tal senso v. anche U. RUFFOLO, Intelligenza artificiale ed automotive, cit., 156, il quale ritiene necessario assicurare una continuità tra i criteri comportamentali esigibili all’autista umano e quelli del software di guida autonoma.
[133] In aggiunta alle considerazioni già espresse si può riportare l’osservazione di U. RUFFOLO, Intelligenza artificiale ed automotive, cit. 155, il quale mette anche in evidenza come un’eccessiva preoccupazione etica, che porti a precludere la diffusione di veicoli automatizzati, rischi paradossalmente di impedire il prodursi dei benefici sociali derivanti da una maggiore diffusione dei sistemi di guida avanzati, più sicuri della guida umana.
[134] Lo rileva anche F.P. PATTI, The European road, cit., 131.
[135] Condivisibilmente, è sostanzialmente quanto rileva anche F.P. PATTI, The European road, cit., 131 ss., con riferimento alle prospettive che impongono fittiziamente la qualifica di conducente in capo al mero utilizzatore.
[136] Non è possibile in questa sede dare conto delle diverse ricostruzioni relative alla complessa figura del concorso colposo del danneggiato, in particolare con riferimento al confronto tra tesi che ne ravvisano il fondamento sulla causalità, da un lato, e tesi che lo riconducono a una particolare ipotesi di autoresponsabilità, dall’altro lato. Si ritiene, comunque, che la prospettiva più apprezzabile ed equilibrata sia quella proposta da V. CAREDDA, Concorso del fatto colposo del creditore. Art. 1227, Milano, 2020, 40 ss. che ricostruisce la norma coordinando i meccanismi della causalità al principio di autoresponsabilità. A tale opera si rinvia anche per quanto concerne l’esaustiva ricostruzione sistematica e applicativa della norma, e al confronto tra le tesi poc’anzi menzionate.
[137] Torna qui in considerazione il già menzionato problema della “colpa della nave” (art. 483 cod. nav.), dove la navigazione viene considerata nella sua unitarietà, assumendo la nave come punto di vista unificante delle condotte dei vari soggetti coinvolti. Autorevole dottrina, poi, con specifico riferimento ai software, ha efficacemente individuato un “rischio di associazione”, dove le azioni umane e cibernetiche si uniscono, dando luogo a un unico ibrido: v. G. TEUBNER, Responsabilità civile per i rischi della digitalità, cit., 13 ss. Il rispettivo peso delle azioni umane e cibernetiche, comunque, assume rilevanza sia in sede di regresso e di ripartizione delle singole responsabilità (v. infra), sia in punto di concorso colposo dell’utilizzatore danneggiato (v. supra).
[138] Sul punto v. M. TAMPIERI, L’intelligenza artificiale, cit., 732 ss., e G. COMANDÉ, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, cit., 1001 ss. L’accountability assume un ruolo sempre più importante con riferimento ai sistemi informatici, in tal senso anche il GDPR prevede obblighi in merito: v. M. TAMPIERI, ibid.
[139] V., in proposito, E. AL MUREDEN, Event data recorder e advanced driver assistance systems: la “spinta gentile” verso la mobilità del futuro, in Contratto e Impresa, 2022, 2, 390 ss.
[140] Quando si tratti di una corresponsabilità tra produttori (che siano anche “preponenti” secondo la logica qui descritta), peraltro, potrebbe forse trovare applicazione analogica anche l’art. 121 cod. cons., che aggiunge anche il riferimento alle dimensioni del rischio riferibile a ciascuno dei soggetti coinvolti. V. anche L. D’AMICO, Intelligenza Artificiale e auto a guida autonoma, cit., 593 ss.
[141] Sul problema della rilevanza delle concause umane nel sistema della responsabilità civile sia consentito rinviare a V. CAREDDA, Concorso del fatto colposo del creditore, cit., 20 ss.
[142] Ossia: la responsabilità solidale del co-conducente e dei preponenti del software nei confronti dei danneggiati, i meccanismi di tutela dell’utilizzatore nei confronti degli altri soggetti coinvolti nell’impiego del software e, infine, la ripartizione interna delle responsabilità tra tutti i preponenti.
[143] In buona sostanza, si è tentato di ricostruire il “giusto rimedio” intorno agli interessi giuridicamente rilevanti, mediante un’interpretazione sistematica e assiologica delle disposizioni vigenti e senza fermarsi al dato formale e letterale delle disposizioni, secondo l’insegnamento di P. PERLINGIERI, Interpretazione ed evoluzione dell’ordinamento, in Rivista di diritto privato, 2011, 2, 159 ss., ID., Il Diritto Civile nella legalità costituzionale, cit., 278 ss., e ID., Il “giusto rimedio” nel diritto civile, in Il Giusto processo civile, 2011, 4 ss.
[144] L’importanza della continuità nell’assetto normativo applicabile ai differenti tipi di veicoli esistenti è sottolineata da RUFFOLO U., AL MUREDEN E., Intelligenza Artificiale e diritto – Autonomous veichles, cit., 1657 ss.