Il contributo analizza l’impatto delle nuove tecnologie emergenti dell’informazione e della comunicazione sull’attuale disciplina della responsabilità medico sanitaria a fronte delle caratteristiche di opacità, autonomia e imperscrutabilità (cd. black box) dell’I.A. Prima di approfondire il tema della medical malpractice collegato all’utilizzo degli algoritmi, si passano in rassegna le principali criticità dal punto di vista etico e gli ultimi interventi normativi sullo scenario europeo. In particolare, la presente ricerca assolve allo scopo di sciogliere alcuni nodi relativi all’allocazione della responsabilità civile in caso di eventi avversi derivanti dall’erroneo impiego di sistemi intelligenti da parte di professionisti sanitari e di istituti di cura. Si indaga, altresì, il problema relativo al rispetto del principio di autodeterminazione terapeutica del paziente con riguardo al processo decisionale della macchina che non sempre risulta comprensibile. Da ultimo, si mette in luce la necessità di individuare un punto di equilibrio tra innovazione tecnologica e alleanza terapeutica per addivenire ad una governance responsabile dei sistemi intelligenti nell’ecosistema medico sanitario, illustrando alcuni punti fermi da tenere in considerazione in un itinerario ancora in divenire.
The essay analyzes the impact of new emerging tecnologies on the current framework of medical liability in the face of opacity, autonomy and inscrutability (so-called black box) charateristics of A.I. Before examining the topic of medical malpractice related to the use of algorithms, the main critical issues from an ethical point of view and the latest european regulatory interventions are reviewed. In particular, this research aims to unravel some of the knots related to the allocation of liability for adverse events resulting from the misuse of intelligent systems by health care professionals and health care institutions. The paper also investigates the problem about the respect of patient’s informed consent because the decisional process of the A.I. is not often understandable. Finally, it highligths the need to find a balance among technological innovation and therapeutic alliance in order to reach a responsible governance of smart system within medical healthcare ecosystem, illustrating some steadfast points to be taken into account in a still unfolding itinerary.
1. L’impatto delle nuove tecnologie nel campo medico sanitario - 2. Tassonomia e interazione uomo-macchina nel settore sanitario - 3. Criticità dal punto di vista etico dell’e-Health - 4. L’approccio eurounitario - 5. La disciplina della responsabilità medica alla prova dell’I.A. - 5.1. La posizione del professionista sanitario nel caso di danni da impiego di sistemi intelligenti - 5.2. La responsabilità della struttura sanitaria nell’uso di sistemi intelligenti - 5.3. L’onere probatorio del paziente e il nesso di causalità - 6. Luci e ombre sul binomio consenso informato e intelligenza artificiale - 7. Conclusioni - NOTE
L’avvento nelle corsie ospedaliere delle nuove tecnologie emergenti dell’informazione e comunicazione, di cui l’intelligenza artificiale (di seguito anche I.A.) [1] costituisce la più dirompente epifania, ha dato luogo ad una nuova era della medicina, nota come e-health [2] o medicina 4.0 [3]. Si tratta di un settore di nuova generazione, connotato dall’intersezione tra informatica, salute e business nell’ambito di una sempre maggiore integrazione con l’ecosistema medico sanitario.
Invero, il campo medico sanitario è uno dei settori maggiormente coinvolti dalla quarta rivoluzione industriale [4] e costituisce uno dei terreni elettivi di sviluppo, applicazione e finanziamento delle nuove tecnologie emergenti negli ultimi anni [5].
Questo è il logico corollario della disponibilità di una crescente massa di dati, strutturati e non, provenienti da svariate fonti: cartelle cliniche elettroniche, letteratura scientifica, sperimentazioni cliniche, registri farmaceutici, reclami assicurativi, smartphone, app, “fitness trackers” e “wearable device”.
La promessa delle nuove tecnologie è quella di erogare servizi sanitari più rapidi ed efficienti a costi inferiori, atteso l’aumento della popolazione e il relativo ineliminabile bisogno di assistenza medica, cui fa da contraltare la penuria di personale sanitario e l’elevato costo delle cure [6].
L’obiettivo è un’assistenza sanitaria sempre più incentrata sul paziente, con approcci personalizzati al processo decisionale, che implicheranno un sempre maggiore “coinvolgimento” dell’assistito nelle strategie di cura.
Nei prossimi decenni, le tecnologie emergenti verosimilmente non solo assisteranno e coadiuveranno il medico [7], ma l’automazione finirà per sostituire e superare l’uomo in molti compiti [8]: diagnosi, prognosi, operazioni chirurgiche, assistenza clinica, monitoraggio, tracciamento, raccolta dati, allocazione delle risorse [9].
In prospettiva, le nuove tecnologie saranno poi impiegate per creare “ospedali cognitivi”, funzionali a facilitare complessivamente le interazioni con i pazienti e gestire efficientemente l’esperienza nosocomiale [10].
Ne consegue che il trend relativo all’utilizzo di dispositivi intelligenti in medicina è destinato a crescere in misura esponenziale nel corso degli anni a venire.
Come evidenziato in recenti studi [11], l’I.A. in medicina può essere utilizzata per : i) la diagnostica per immagini [12]; ii) la chirurgia robotica controllata da remoto [13]; iii) il supporto alle decisioni cliniche [14]; iv) medicina di precisione [15]; v) scoperta di nuovi farmaci [16]; vi) trials clinici [17]; vii) predizione e previsione [18]; viii) clinical audit [19]; ix) affari amministrativi [20].
Alle indiscutibili opportunità per l’intero settore medico sanitario legate all’introduzione dei sistemi intelligenti tecnologie emergenti si accompagnano nuovi rischi di lesione di diritti fondamentali, che rappresentano un campo di riflessione ineludibile per i giuristi.
Vista l’estrema attualità e interesse dell’argomento, la presente trattazione mira a tratteggiare alcuni tra i principali interrogativi e nodi giuridici in tema di malpractice medico sanitaria all’attenzione degli interpreti, che hanno già da tempo cominciato a studiare e approfondire la materia sotto vari angoli di visuale [21].
Come è noto, l’I.A. è un termine ombrello che abbraccia un ventaglio eterogeneo e diversificato di apparecchiature tecnologiche [22].
Secondo uno studio di PwC [23], l’I.A. e la robotica sono progettati per svolgere in campo medico molteplici compiti [24], inquadrabili in almeno otto aree di applicazione: keeping well, early detection, diagnosis, decision-making, treatment, end-of-life care, research and training.
Posta l’estrema varietà delle tecnologie emergenti in ambito sanitario, pare quindi essenziale elaborare un sistema di classificazione che consenta l’identificazione, valutazione e controllo dei rischi associati alle nuove tecnologie.
In particolare, la necessità di procedere ad una tassonomia dei sistemi intelligenti di tipo medico sanitario assolve alla finalità di far emergere le connotazioni principali di queste strumentazioni così da poter costruire una metodologia per l’analisi delle relative implicazioni etico, sociali e giuridiche [25].
Senza alcuna pretesa di esaustività che si rivelerebbe fallimentare in forza della continua evoluzione tecnologica, sono identificabili almeno tre macro aree applicative dei sistemi intelligenti e di quelli robotici: clinica, riabilitativa e assistenziale [26].
La prima area riguarda quello spettro di strumentazioni, gestite prevalentemente da personale clinico qualificato, che supportano il processo di cura dei pazienti in attività come la diagnosi, il trattamento, l’intervento chirurgico e farmacologico nonché l’assistenza sanitaria.
La seconda area, invece, ricomprende un ampio spettro di applicazioni per l’assistenza di pazienti affetti da disturbi neurologici, problemi ortopedici e patologie legate all’invecchiamento. In questo settore, le nuove tecnologie sono volte a favorire il recupero delle funzionalità menomate ovvero perdute sotto forma tanto di assistenza quanto di sostituzione, come esoscheletri o protesi.
La terza ed ultima area, infine, abbraccia quei sistemi il cui scopo è quello di fornire assistenza a pazienti e operatori sanitari in strutture ospedaliere, cliniche e assistenziali, come quelle tecnologie devolute allo svolgimento di compiti di routine.
Seguendo l’impostazione adottata nello studio “Robotics for Healthcare, final report” [27], è possibile discernere varie micro aree della robotica clinica [28], riabilitativa [29] e assistenziale [30].
Per correttezza, si osserva che la classificazione di cui sopra è solo una delle tante nel campo della intelligenza artificiale e robotica applicata nel settore sanitario.
Lungi dall’avere rilievo meramente speculativo e didascalico, l’esercizio classificatorio in esame assolve alla finalità tanto di consentire all’interprete di affinare la consapevolezza rispetto alle peculiarità proprie di ciascuna tecnologia quanto di sollecitare un intervento regolatorio modulato a seconda dei rischi derivanti da ciascun device medicale senza limitarne l’utilizzo o bloccarne il miglioramento.
Come evidenziato in una recente analisi [31], si individuano dalla predetta mappatura dei sistemi intelligenti e robotici in sanità alcuni criteri potenzialmente rilevanti per la definizione del regime giuridico di responsabilità.
Alla luce di quanto sopra, appare essenziale il fatto che la determinazione del regime giuridico della responsabilità e l’allocazione dei danni debbano tener conto delle specificità dei singoli sistemi intelligenti, non risultando ragionevole una parificazione orizzontale di applicazioni tecnologiche distanti tra loro [32].
A conclusioni analoghe si è di recente pervenuti nel sistema automotive relativamente alle macchine driverless [33].
Prima di esaminare i riflessi giuridici dell’e-Health in tema di medical malpractice, pare opportuno spendere alcune sintetiche considerazioni sotto il profilo etico relativamente all’ingresso delle nuove tecnologie emergenti dell’informazione e della comunicazione in sanità. A questo si ricollega la genesi e affermazione di una disciplina a sé stante, conosciuta come “Machine medical ethics” [34].
Con l’avvento dei sistemi medicali intelligenti l’ecosistema sanitario sta andando incontro ad una progressiva dematerializzazione [35], decentralizzazione [36] e disintermediazione [37] del rapporto medico-paziente, cui il Parlamento Europeo aveva dedicato alcuni specifici considerando all’interno della Risoluzione del 2017 da prendere in considerazione nel processo legislativo [38].
In particolare, l’automazione conduce ad una progressiva perdita di contatto umano sotto il profilo qualitativo e quantitativo con l’inesorabile isolamento sociale dei pazienti, c.d. disumanizzazione delle cure [39]. In altri termini, c’è il pericolo che il malato non venga più considerato come persona, bensì venga ridotto complessivamente ad un insieme di dati.
Peraltro, bisogna considerare che ci sono aspetti non “datificabili”, come i profili culturali, sociali e psicologici di un paziente oppure gli elementi organizzativi di un contesto ospedaliero, di cui occorre tener conto per un’efficiente gestione del rischio nella relazione medico-paziente.
Sempre in tema di disumanizzazione delle cure, si osserva che le tecnologie emergenti destano dubbi e perplessità in punto di rispetto dell’autonomia del paziente, là ove le tecnologie emergenti siano volte a replicare artificiosamente la compagnia dell’uomo all’insegna della c.d. antropormifizzazione delle macchine che snatura la differenza tra l’uomo e lo strumento [40]. Invero, si registra un’erosione della dignità dell’assistito il cui miglioramento dello stato di salute passa attraverso spesso un processo che il paziente avrebbe disconosciuto se avesse avuto piena capacità mentale [41].
In altri termini, un soggetto affetto da demenza può non essere in grado di discernere la compagnia di un uomo da quella di una macchina [42].
Così procedendo, si rischia di pervenire secondo uno scivoloso crinale alla sostituzione del personale medico con robot e altri sistemi intelligenti nell’erogazione dell’assistenza sanitaria. Ciò nondimeno, alcuni autori prendono le distanze da questo ragionamento e considerano la manipolazione un imperativo morale se conduce a miglioramenti dello stato di salute [43].
Ulteriori preoccupazioni sorgono sia sotto il profilo dell’affidabilità e della sicurezza che sotto il profilo della trasparenza e dell’accountability. Invero, l’opacità (black box) dei meccanismi di funzionamento dei sistemi intelligenti impedisce di discernere il percorso logico tra gli inputs e gli outputs, ostacolando così la rilevazione di errori diagnostici terapeutici. Ciò deriva tanto dalla presenza di software proprietari, inaccessibili da parte di terzi, quanto dalla complessità dei sistemi intelligenti, incomprensibili per l’uomo.
Non trascurabile è, poi, il c.d. “deskilling” professionale in sanità, consistente nel progressivo depauperamento di competenze e capacità del personale medico a causa dell’utilizzo crescente dei sistemi intelligenti [44]. Quanto detto è emerso chiaramente in uno studio condotto da un gruppo di ricercatori della City University of London [45].
Parallelamente, l’interposizione delle macchine nell’elaborazione dei processi diagnostici e terapeutici porta con sé il pericolo della c.d. “automation bias” o “algorithmic legitimacy”, quale tendenza dell’uomo di seguire acriticamente le cc.dd. “machine-generated decision” con corrispondente insensibilità verso evidenze e soluzioni contrarie [46].
Peraltro, l’impiego sempre maggiore dell’intelligenza artificiale e dell’automazione in medicina potrebbe condurre alla scomparsa di intere discipline, come la radiologia [47].
A ciò si aggiunge la perdita di opportunità di formazione e di addestramento per i dottori con il paradosso per cui alla mancanza di medici specialisti a causa dell’I.A. bisognerà supplire con una maggiore automazione di certe attività senza contare la progressiva perdita di competenze professionali per cui risulterà sempre più arduo rilevare errori commessi dalle macchine [48].
Punti dolenti si rinvengono anche in tema di “data bias”, “fairness” ed equità [49]. Sebbene la promessa dell’I.A. sia quella di rivolgere i benefici della medicina anche ai meno abbienti, le nuove tecnologie rischiano di riflettere e di consolidare asimmetrie insite nei dati di cui si nutrono [50]. Senza una sufficiente varietà dei dati d’addestramento del sistema intelligente, l’I.A. non potrà giovare a quelle fasce della popolazione prive di adeguata rappresentazione [51]. Ne deriva il pericolo di discriminazioni occulte su larga scala, tali da danneggiare i soggetti più vulnerabili per motivi di razza, genere, etnia ed età. A ciò, va aggiunta la tendenza dei sistemi intelligenti a replicare e cristallizzare le distorsioni con il rischio che i pregiudizi sociali saranno “appresi” e “rafforzati” dall’I.A., senza interventi preventivi adeguati [52].
Da non sottovalutare è, infine, il rischio di conflitti di interesse e di perdita dell’autonomia individuale [53]. Da una parte, infatti, le esternalità dei sistemi intelligenti possono essere il portato di logiche di mercato volte a favorire determinati farmaci o trattamenti per scopi di lucro [54], anziché il c.d. best interest del paziente. Dall’altra, l’opacità dell’output della macchina si risolve in una limitazione della libertà di scelta delle cure e del consenso informato del paziente, là ove il medico non sappia spiegare la ragione sottesa dietro ad una certa diagnosi o trattamento [55].
L’indagine sulla responsabilità civile per danni cagionati da sistemi intelligenti deve passare attraverso una rapida disamina delle ultime principali iniziative eurounitarie: il Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024, noto anche come “Artificial Intelligence Act” [56]; la Direttiva (UE) 2024/2853 del Parlamento Europeo e del Consiglio del 23 ottobre 2024 sulla responsabilità per danno da prodotti difettosi [57] e la proposta di Direttiva del Parlamento europeo e del Consiglio sulla responsabilità extracontrattuale da intelligenza artificiale COM(2022) 496 final del 28 settembre 2022 che abroga la direttiva 85/374/CEE del Consiglio [58].
Nell’agenda dell’Unione Europea, infatti, l’I.A. occupa una posizione strategica nei piani di intervento dei prossimi anni al fine di sostenere soluzioni innovative in linea con i valori dell’Unione [59]. Alla base della “via europea” sull’I.A. si coglie la consapevolezza della globalità e centralità del tema che trascende i confini del diritto statale [60].
Essendo i sistemi intelligenti il presente e il futuro della tecnologia, l’UE mira a diventare attraverso la creazione di un ecosistema europeo di attori pubblici e privati un leader mondiale nello sviluppo di un’I.A. sicura, affidabile ed etica, come affermato dal Consiglio europeo [61] e come richiesto dal Parlamento europeo [62].
Ciò premesso, il Regolamento (UE) 2024/1689 delinea un quadro giuridico armonizzato per disciplinare lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di I.A. nell’Unione nel solco della già ampiamente consolidata normativa sulla sicurezza e la conformità dei prodotti, seguendo un approccio ex ante basato sul rischio. Secondo questa impostazione metodologica, i sistemi intelligenti sono suddivisi in quattro categorie di rischio: minimi, limitati, alti e inaccettabili.
Lo scopo dell’AI Act è quello di promuovere la diffusione di un’I.A. antropocentrica e affidabile, garantendo al contempo un elevato livello di protezione della salute, della sicurezza nonché dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea.
In particolare, le previsioni dell’AI Act diventeranno efficaci in quattro distinte e successive fasi temporali [63].
Per i sistemi di I.A. aventi finalità generali sono contemplati obblighi specifici, a loro volta graduati sui rischi (sistemici). L’enforcement delle regole spetta a un apparato di autorità a due livelli, nazionale ed europeo, così richiedendo uno sforzo di coordinamento e di dialogo costruttivo tra le istituzioni. Nei casi di non conformità all’AI Act, sono previste rilevanti sanzioni pecuniarie per le violazioni, nonché misure restrittive, fino al ritiro dal mercato del sistema di I.A.
Il documento pone grande enfasi sulla salvaguardia dei dati personali e sulla protezione della privacy dei cittadini, contenendo specifiche disposizioni volte a garantire un trattamento sicuro dei dati. Ne deriva che l’AI Act avrà un grande impatto sui dispositivi medici che contengono software di intelligenza artificiale.
Sul piano normativo, deve ritenersi che l’AI Act costituisca una disciplina regolamentare minima operante sia sul piano pubblicistico che su quello privatistico, che si affianca al diritto civile domestico senza sostituirlo. Le violazioni del regolamento possono così rappresentare fatti illeciti che integrano elementi costitutivi di fattispecie regolate dal diritto interno [64].
La Direttiva (UE) 2024/2853 del Parlamento Europeo e del Consiglio del 23 ottobre 2024, dovrà essere recepita dagli Stati membri entro il 9 dicembre 2026, data a partire dalla quale sarà abrogata la direttiva 85/374/CEE del Consiglio.
La novella normativa ha modificato le nozioni di “prodotto”, facendovi rientrare i software, di “componente” del prodotto, ampliata ai servizi digitali, di fabbricante del prodotto, esteso anche a qualunque persona fisica o giuridica che modifichi in maniera sostanziale un prodotto al di fuori del controllo del fabbricante originario e lo metta successivamente in servizio o a disposizione sul mercato.
Per attenuare asimmetrie informative, sono previste a favore dell’attore alcune agevolazioni in tema di accesso alle prove e un alleggerimento dell’onere probatorio riguardo al carattere difettoso del prodotto e al nesso causale tra questo e il danno, con l’introduzione di specifiche presunzioni. Per scongiurare un’applicazione eccessiva dell’esimente del c.d. rischio da sviluppo, sono altresì contemplati alcuni indici di difettosità successivi alla messa in circolazione come la mancanza degli aggiornamenti o delle migliorie del software necessari per mantenere la sicurezza del prodotto, che il fabbricante doveva fornire.
Accanto all’AI Act, il diritto unionale prevede una separata proposta di Direttiva per regolamentare la responsabilità extracontrattuale da I.A., lasciando così intendere che le questioni di responsabilità aquiliana restano nel dominio del diritto domestico, al netto di un’armonizzazione dei vari diritti statuali tramite la direttiva.
La proposta di Direttiva del Parlamento europeo e del Consiglio sulla responsabilità extracontrattuale da intelligenza artificiale COM (2022) 496 final del 28 settembre 2022 rappresenta un’integrazione dell’AI Act che va a disciplinare le ipotesi di responsabilità fault based, cioè basate sulla colpa, che sfuggono all’applicazione della predetta Direttiva sulla responsabilità da prodotto. Sebbene l’iter di approvazione della Direttiva sia ancora in corso, il documento ha già sollevato vari interrogativi a fronte della previsione di un meccanismo di presunzioni differenziate in base al rischio con evidenti attriti rispetto alla legge interna riguardo all’onus probandi.
Con l’entrata in vigore della Direttiva, esemplificativamente, il soggetto danneggiato da medical devices intelligenti dovrà dimostrare la colpa del medico e il danno subìto per far scattare la presunzione della sussistenza anche del nesso di causalità a differenza dell’ordinamento giuridico interno che richiede la prova di tutti gli elementi oggettivi e soggettivi per l’affermazione della responsabilità civile.
Nei paragrafi successivi, la responsabilità derivante dall’impiego dell’I.A. in medicina sarà esaminata alla luce della vigente disciplina della medical malpractice per valutarne l’effettività e saggiarne l’attualità rispetto alle questioni sollevate dall’ingresso delle nuove tecnologie emergenti.
L’ampia diffusione e applicazione di sistemi intelligenti in sanità comporterà gravi torsioni delle tradizionali categorie civilistiche di imputazione della responsabilità civile come autore, condotta, causalità, offesa e colpevolezza [65].
Ne deriva che il problema dell’allocazione della responsabilità civile in caso di eventi avversi da utilizzo delle nuove tecnologie occupa una posizione centrale nel dibattito, attesa l’opacità dei processi di apprendimento e di decisione dei sistemi intelligenti per cui non è dato spesso comprendere il percorso logico seguito dalla macchina rispetto ad una certa conclusione. Ciò si ricollega al fatto che l’“IA ‘ragiona’ per inferenza statistica, e non per deduzione causale” [66].
Essendo privi di soggettività giuridica e non potendo quindi essere ritenuti responsabili in proprio i sistemi intelligenti per i danni causati a terzi, l’obbligazione risarcitoria dovrà necessariamente gravare in capo ad un agente umano.
Tuttavia, l’allocazione della responsabilità civile a seguito della verificazione di incidenti derivanti dall’utilizzo di sistemi intelligenti in ambito sanitario si presenta più complessa rispetto ad altri contesti giuridici, giacché si inseriscono nel rapporto intercorrente tra la già variegata compagine di soggetti astrattamente suscettibili di acquisire la qualifica di produttore della tecnologia emergente [67] e il paziente due nuovi attori: la struttura nosocomiale, che è l’acquirente del dispositivo medico intelligente, e l’operatore medico sanitario, che utilizza il device medico intelligente all’interno dell’istituto di cura [68].
Ne deriva che l’imputazione della responsabilità per danni provocati da dispositivi intelligenti in sanità diventa soggettivamente complessa, perché coinvolge vari attori che afferiscono a settori differenti e non sempre riconducibili a quello medico, come il produttore, il programmatore, l’assemblatore, l’ideatore e il trainer dell’algoritmo [69].
Vista la diversa fenomenologia di eventi avversi derivanti, direttamente o indirettamente, dall’impiego dell’I.A. in medicina, l’individuazione del regime giuridico di responsabilità civile muta a seconda del tipo di danno, della natura del danneggiante e del carattere di relazione con il paziente.
Nell’ambito di questa riflessione, occorre individuare un punto di equilibrio tra due contrapposte istanze [70]. Da una parte, bisogna evitare un appesantimento del regime di responsabilità degli operatori medico sanitari per eventi avversi che trascendono la loro sfera di azione e di controllo per non disincentivare l’impiego delle nuove tecnologie con tutti i benefici connessi nell’erogazione delle cure e nel trattamento dei malati. Dall’altra, è necessario preservare l’interesse del paziente a non ricevere una tutela deteriore rispetto a quella offerta ai pazienti danneggiati da trattamenti sanitari tradizionali, garantendo il medesimo livello di protezione previsto nei casi in cui non sia coinvolto un sistema intelligente [71].
Dinanzi al fenomeno dell’e-Health, l’interrogativo più incalzante è quello relativo all’applicazione degli stessi criteri di imputazione della responsabilità civile utilizzati in ambito sanitario.
Com’è noto, l’attuale normativa vigente in tema di malpractice sanitaria si ricollega alla c.d. legge Gelli-Bianco (legge 8 marzo 2017, n. 24) [72], che delinea un doppio binario di responsabilità: extracontrattuale, ex art. 2043 cod. civ., in capo all’operatore sanitario, e, contrattuale ex artt. 1218 e 1228 cod. civ., in capo all’istituto di cura per i danni provocati dai propri sanitari.
Sebbene l’impiego delle tecnologie emergenti possa aumentare la precisione e l’accuratezza dell’intervento medico, si deve ritenere a livello nazionale che l’I.A. e la robotica avanzata siano fattori di per sé neutrali rispetto all’inquadramento dell’attività del professionista sanitario, come avviene per l’uso di qualsiasi applicazione o presidio sanitario nell’erogazione della prestazione sanitaria [73]. Nell’erogazione della prestazione di cura tramite l’utilizzo delle tecnologie emergenti, quindi, l’attività del professionista sanitario resta riconducibile nell’ambito delle obbligazioni di mezzi, e non di risultato [74].
Essendo, quindi, come sopra evidenziato l’I.A. un mero strumento a disposizione degli operatori sanitari e degli istituti di cura, questi restano responsabili delle proprie azioni ed omissioni. Ne deriva che il professionista sanitario continua a soggiacere ad un regime di responsabilità per colpa a titolo aquiliano anche dinanzi all’erroneo impiego di strumenti di I.A. tutte le volte in cui il danno cagionato al paziente dall’utilizzo del dispositivo intelligente sia dovuto alla violazione del canone della diligenza professionale imposto dall’art. 1176, comma 2, cod. civ., nonché all’inosservanza delle linee guida e delle buone pratiche clinico-assistenziali cui fa riferimento l’art. 5 Legge Gelli-Bianco.
La responsabilità contrattuale dell’operatore sanitario, viceversa, residuerà allorquando il professionista, seppur dipendente dell’ospedale, abbia stipulato un rapporto negoziale con il paziente.
In sostanza, le nuove tecnologie emergenti costituiscono uno strumento di lavoro di cui l’operatore medico sanitario si avvale per l’espletamento della sua attività all’interno della struttura nosocomiale dove “la regia dell’intervento (è) ancora tutta umana” [75].
Pertanto, il fallimento delle cure e il peggioramento della salute in capo al paziente a seguito dell’utilizzo dell’I.A. non implicano automaticamente la sussistenza di un errore medico.
Ai fini dell’affermazione di responsabilità dell’operatore sanitario, occorre valutare se l’operatore abbia agito o meno secondo le leges artis alla stregua di un agente modello della stessa specialità medica nelle medesime circostanze [76]. Esemplificativamente, il personale sanitario può essere chiamato a rispondere in caso di eventi avversi per essersi avvalso di sistemi intelligenti senza avere le competenze necessarie, per avere impiegato tali tecnologie in relazione ad un caso clinico le cui caratteristiche avrebbero imposto metodi di cura tradizionali, per avere utilizzato una tecnologia intelligente nella consapevolezza o nella colpevole ignoranza del suo malfunzionamento, per non avere rilevato l’erroneità delle indicazioni diagnostiche e terapeutiche fornite dal dispositivo secondo un criterio di diligenza professionale [77].
Ed ancora, la valutazione della condotta del medico dovrà necessariamente tener conto del rispetto di un duty to stay abreast [78], consistente in un obbligo di formazione e aggiornamento professionale rispetto all’utilizzo delle nuove tecnologie nella prassi medico sanitaria [79]. Allo stesso modo, l’operatore sanitario deve informarsi sulle modalità di funzionamento del sistema intelligente, onde comprendere se il suo ricorso risulti appropriato relativamente ad una certa patologia o classe di pazienti che potrebbero non essere stati adeguatamente presi in considerazione nella costruzione, sviluppo e allenamento dell’I.A.
Quando utilizza un sistema intelligente, pertanto, il professionista è tenuto sempre a verificare la correttezza dell’outcome diagnostico o terapeutico della macchina in relazione alle specifiche condizioni del destinatario delle cure e del sapere professionale a pena di responsabilità. Diversamente, si rischia la creazione di un sistema che vede i dottori “slaves to the machine” [80].
Come previsto dal regime a “doppio binario” della responsabilità medica di cui all’art. 7 Legge Gelli-Bianco, può sussistere tanto accanto quanto a prescindere dalla responsabilità vicaria del personale medico sanitario strutturato una diretta e autonoma responsabilità a titolo contrattuale della struttura sanitaria.
Da una parte, quindi, il danno subìto dal paziente a seguito della condotta colposa dell’operatore medico sanitario per l’erroneo impiego di strumenti intelligenti dovuto ad imperizia o negligenza determina l’insorgenza della responsabilità della struttura sanitaria da inadempimento contrattuale.
Dall’altra e indipendentemente dall’attività del medico, può venire in rilievo una responsabilità a titolo contrattuale della struttura sanitaria per c.d. difetto di organizzazione [81]. Quest’ultima si ricollega all’inadempimento dell’obbligo derivante dal contratto atipico di spedalità intercorrente con i pazienti, per cui la struttura nosocomiale è tenuta ad una prestazione complessa che non si esaurisce nell’effettuazione delle cure mediche e di quelle chirurgiche, ma si estende ad una serie di altri obblighi accessori e doveri organizzativi, consistenti nella messa a disposizione di personale medico ausiliario e di personale paramedico, di pronto soccorso, di medicinali, di tutte le attrezzature tecniche necessarie, nonché in prestazioni latu sensu alberghiere, quali il ricovero, la fornitura di alloggio, il vitto, l’assistenza al paziente fino alla sua dimissione nella messa a disposizione di spazi salubri e adeguati all’assistenza medico sanitaria, tra cui potrebbe rientrarvi anche quella relativa all’utilizzo delle nuove tecnologie emergenti [82].
Nello scenario in considerazione, esemplificativamente, l’ente nosocomiale può essere chiamato a rispondere per danni cagionati da sistemi intelligenti che non siano stati sottoposti alle ordinarie procedure di manutenzione, controllo e aggiornamento per assicurare il loro regolare funzionamento [83].
Parimenti, gli istituti di cura potranno essere considerati responsabili per non aver formato il personale medico sanitario, garantendo loro adeguate conoscenze e competenze circa il corretto impiego delle nuove tecnologie [84], quanto per aver omesso l’impiego del sistema chirurgico automatizzato una volta entrato a far parte dello standard of care [85]. Tuttavia, la struttura sanitaria non può essere ritenuta responsabile dei danni dovuti a difetti di fabbricazione e di funzionamento non rilevabili con un’ispezione diligente, come avviene oggi nell’ipotesi di apparecchiature tecnologiche tradizionali [86].
In definitiva, l’istituto di cura risponderà a titolo contrattuale per i danni cagionati al paziente derivanti dall’erroneo impiego di sistemi intelligenti, ove il pregiudizio sia causalmente riconducibile ad un’inadempienza alle obbligazioni ad essa facenti carico circa la diligente organizzazione dell’ente nei limiti dell’impossibilità non imputabile [87].
Nell’accertamento della responsabilità civile in caso di danni cagionati al paziente per effetto dell’utilizzo di sistemi intelligenti in sanità bisogna porre particolare attenzione al profilo relativo al controllo del professionista sanitario sull’operato del dispositivo intelligente.
A fronte di eventi avversi, la totale autonomia e opacità del processo decisionale della macchina è idonea ad interrompere il nesso di causalità materiale tra la condotta del medico e l’evento di danno, cagionato dall’impiego delle nuove tecnologie emergenti a prescindere dalla ricostruzione dell’elemento soggettivo [88].
Nondimeno, torna ad applicarsi la normativa dettata dalla Legge Gelli-Bianco se la decisione finale della diagnosi e del trattamento sanitario spetta all’operatore medico.
Ne consegue che incombe sul paziente l’onere della prova di tutti gli elementi di struttura dell’illecito aquiliano, dove il principale profilo critico con riferimento ai danni provocati dall’uso dell’I.A. riguarda proprio la dimostrazione del nesso causale tra la condotta e l’evento lesivo secondo un ragionamento logico-deduttivo in base al criterio del “più probabile che non” [89].
Tuttavia, l’aspettativa di ristoro del paziente danneggiato finisce per essere fortemente pregiudicata o addirittura esclusa dall’opacità delle nuove tecnologie emergenti che impedisce di risalire alla causa del danno, atteso il funzionamento spesso imperscrutabile e incomprensibile dei dispositivi medicali intelligenti [90].
Quanto appena detto si riflette, poi, sulla diversa ipotesi della causa incerta o ignota [91]. Secondo la giurisprudenza di legittimità [92], incombe sul paziente provare il nesso di causalità materiale, quale legame eziologico tra la condotta del sanitario e l’evento di danno. Solo successivamente, spetta al professionista sanitario o alla struttura nosocomiale dimostrare di aver adempiuto o di non aver potuto adempiere per una causa ad essi non imputabile, nonostante l’impiego della diligenza richiesta ai sensi dell’art. 2236 cod. civ.
In questa ripartizione dell’onere della prova, le conseguenze sfavorevoli ricadranno rispettivamente sul paziente creditore, se questi non è in grado di dimostrare, neppure presuntivamente, la relazione causale con la condotta del sanitario. Se, viceversa, resta ignota la causa dell’impossibilità sopravvenuta della diligenza professionale saranno il professionista o la struttura sanitaria a sopportare il peso dell’omesso assolvimento dell’onere probatorio e ad essere chiamati a risarcire il danno [93].
Nel contesto dell’e-Health, quindi, la vigente disciplina della responsabilità professionale continua ad applicarsi laddove la causa del danno derivi da un uso improprio dei sistemi medicali intelligenti tutte le volte in cui l’operatore medico e la struttura sanitaria conservino un potere di controllo sul dispositivo. Ne deriva che la responsabilità civile per malpractice medica sarà valutata sulla base degli standard di cura esistenti per un professionista qualificato [94].
Per converso, la dimostrazione da parte del paziente leso del nesso causale tra condotta ed evento di danno risulterà assai difficoltosa se il trattamento sanitario risulti affidato interamente al sistema intelligente, cui si correla l’assenza di controllo da parte del professionista sanitario e uno scarso grado di trasparenza sul suo funzionamento [95]. Ciò si ricollega all’opacità dei sistemi intelligenti, il cui procedimento di funzionamento alla base di un certo output, rivelatosi poi dannoso, è spesso imperscrutabile all’esterno con la conseguenza che il paziente danneggiato non potrà essere risarcito [96].
Nell’ambito del complesso rapporto tra nuove tecnologie emergenti e sanità, va posta particolare attenzione al tema relativo al rispetto del principio di autodeterminazione del paziente, atteso che il consenso informato costituisce “legittimazione e fondamento” [97] di ogni trattamento sanitario [98].
In particolare, l’acquisizione del consenso informato è funzionale all’esercizio del diritto alla salute ed è una proiezione della “libertà di cura” [99].
Similmente a quanto avviene nell’ambito della medicina tradizionale, invero, può configurarsi anche con riferimento ad attività sanitarie eseguite tramite sistemi intelligenti una responsabilità per violazione del consenso informato del paziente, che rappresenta la base della “relazione di cura e di fiducia tra paziente e medico” e il punto di incontro tra l’“autonomia decisionale del paziente e la competenza, l’autonomia professionale e la responsabilità del medico” [100].
Seppure l’impiego di dispositivi medicali intelligenti risulti sottoposto alla disciplina generale vigente di cui alla legge 22 dicembre 2017, n. 219, la materia solleva vari interrogativi problematici e presenta diversi aspetti critici [101], che trascendono il campo squisitamente giuridico con riflessi anche sul piano etico e su quello pratico [102].
Rispetto all’acquisizione del consenso informato del paziente sull’uso di sistemi intelligenti, si potrebbe sostenere che sarebbe superfluo svelare l’impiego di algoritmi nel trattamento clinico del paziente, giacché la regia complessiva e la decisione finale sul percorso terapeutico restano pur sempre in capo al medico. In altri termini, i sistemi intelligenti sarebbero solo uno tra i tanti strumenti a disposizione del personale sanitario nella formulazione della diagnosi o nell’elaborazione del trattamento clinico senza alcuna incidenza diretta sulla condizione dei pazienti [103].
Nella prassi, poi, la classe medica non rivela tutte le fonti scientifiche, le ragioni tecniche, l’iter logico, le linee guida e i protocolli sottesi alla scelta di un certo trattamento in luogo di altri percorsi terapeutici per evitare un sovraccarico di informazioni inutili per l’assistito.
Al netto di tutto questo, tuttavia, si ritiene doveroso, in omaggio alle molteplici fonti normative nazionali e sovranazionali che sanciscono la centralità del consenso informato [104], rendere edotto il paziente circa l’impiego dell’I.A. nel trattamento della sua condizione, quale parte essenziale del soddisfacimento dell’obbligo di cura e del perseguimento del “best interest” dell’assistito da parte del medico [105].
A sostegno, si fa leva anche sul combinato disposto di cui al 71 considerando e all’art. 22 GDPR che riconoscono in capo all’interessato “il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.
La disclosure è cruciale per conoscere una pluralità di aspetti che vanno dalle modalità e dinamiche di utilizzo dell’I.A. e dal loro tasso effettivo di incidenza sulle decisioni del personale medico fino all’azienda sviluppatrice, ai dati d’addestramento, alla presenza di eventuali bias e conflitti d’interesse [106]. Diversamente, il paziente non ha modo di avvedersi dell’impiego delle nuove tecnologie emergenti e di eventuali erronee raccomandazioni dei sistemi intelligenti, che potrebbero aver escluso una certa cura necessaria o aver consigliato inutili costosi interventi.
L’acquisizione del consenso informato dell’assistito risulta tanto più doveroso quanto più l’affidamento a sistemi intelligenti nell’attività diagnostica e terapeutica si risolve in una limitazione dell’autonomia da parte del personale sanitario nell’erogazione della prestazione di cura [107].
Sciolto positivamente il quesito relativo all’obbligo del medico di mettere l’assistito al corrente circa l’utilizzo di sistemi intelligenti nella prestazione sanitaria programmata, il personale sanitario dovrebbe altresì fornire un’informazione quanto più “completa” ed “esaustiva” sulle caratteristiche del dispositivo medicale [108]. Ciò non implica, però, che debbano essere comunicati aspetti tecnici di dettaglio del sistema intelligente, essendo sufficiente l’enunciazione dei benefici e dei limiti caratterizzanti la tecnologia destinata ad essere utilizzato nelle cure [109].
Tuttavia, si ritiene che la portata di tale obbligo informativo gravante sul personale sanitario vada commisurata alle capacità di comprensione e delle condizioni morali del paziente, così da scongiurare rifiuti immotivati, e si precisa che debba circoscriversi ai soli rischi prevedibili con esclusione di quegli eventi avversi eccezionali e imprevedibili [110].
Ferma la necessità di rendere edotto l’assistito dell’impiego di sistemi intelligenti nella prestazione di cura, sorge il problema di ordine pratico relativo alle modalità di comunicazione delle logiche di funzionamento del dispositivo utilizzato. Come già evidenziato [111], invero, le reti neurali non operano in modo lineare con corrispondente incomprensibilità degli output tanto per i medici quanto per i pazienti. Ne deriva che “at an intuitive level, it is hard to imagine precisely what informed consent means in the context of a recommedation where no-one knows exactly how it works” [112].
Peraltro, risulterà estremamente arduo inserire informazioni relative alla logica di funzionamento di sistemi intelligenti complessi in un modulo per il consenso informato con il rischio di irrigidire il rapporto di fiducia tra medico e paziente [113].
Alla luce delle riflessioni suesposte, occorre una valutazione critica dell’impatto delle tecnologie emergenti in termini di utilità e di sicurezza nonché di costi-benefici prima di dare loro ingresso libero in sanità. Una simile analisi è indispensabile se si considera che i medical devices intelligenti intercettano bisogni sociali sensibili e riguardano persone vulnerabili.
A tal fine, risulta essenziale individuare un punto di equilibrio tra innovazione tecnologica e alleanza terapeutica per addivenire ad una governance responsabile dei sistemi intelligenti nell’ecosistema medico sanitario.
Nel contesto in esame, è chiaro che il profilo critico attiene all’opacità degli algoritmi che rende difficile comprendere il meccanismo alla base di una certa diagnosi o di una determinata cura. Per questo motivo, gli interventi di matrice unionale si dirigono verso l’introduzione di regole di maggiore trasparenza, di agevolazioni in tema di accesso alle prove e di meccanismi di presunzione per attenuare l’onere probatorio a carico del paziente danneggiato.
Le caratteristiche degli algoritmi con particolare riferimento alla loro autonomia e imprevedibilità costituiscono una sfida per il legislatore europeo che ha ridisegnato l’attuale armamentario giuridico tramite il Regolamento (UE) 2024/1689 e la Direttiva (UE) 2024/2853 sulla responsabilità per danno da prodotti difettosi e sta tutt’ora elaborando nuovi paradigmi concettuali attraverso la proposta di Direttiva del Parlamento europeo e del Consiglio sulla responsabilità extracontrattuale da intelligenza artificiale.
A livello nazionale, l’erroneo utilizzo di sistemi intelligenti in sanità continua ad essere governato efficacemente dall’attuale Legge Gelli-Bianco. Come sopra evidenziato, invero, l’I.A. è un mero strumento a disposizione degli operatori sanitari e degli istituti di cura che restano, quindi, responsabili delle proprie azioni ed omissioni, ove il danno sia eziologicamente collegato ad una violazione delle regole cautelari o all’inadempimento delle obbligazioni loro facenti carico.
Per salvaguardare i benefici degli algoritmi ed evitare tecniche di medicina difensiva, le indicazioni diagnostiche e terapeutiche elaborate tramite sistemi di supporto alla decisione clinica potrebbero in un’ottica de jure condendo essere assimilate alle linee guida di cui all’art. 5 Legge Gelli-Bianco cui il professionista deve attenersi fatte salve le specificità del caso concreto [114].
Quanto appena detto sulla sufficienza del quadro normativo interno potrebbe entrare in crisi in un prossimo futuro allorquando le macchine erogheranno prestazioni sanitarie in completa autonomia senza l’intervento dell’uomo.
Sul punto, tuttavia, vale la pena osservare che il rapporto tra I.A. e medico deve essere inteso non in termini di competizione sottrattiva, bensì in termini di collaborazione additiva per cui gli algoritmi e la tecnologia robotica dovranno integrare le capacità umane e non sostituirsi ad esse all’insegna della fusione dei saperi e delle competenze. Questo approccio si pone in linea con il principio di autonomia supervisionata e con la concezione di un “human in command”, dove “la scelta iniziale della cura e quella finale sull’esecuzione dovranno spettare comunque ad un chirurgo umano” [115].
In questo processo evolutivo della scienza medica, la leva fondamentale è il c.d. “re-skilling”, consistente nella preparazione e formazione di un capitale umano capace di lavorare in simbiosi con le nuove tecnologie in modo da massimizzare la salute collettiva e minimizzare i singoli danni [116]. Parallelamente, bisogna affiancare al personale medico tecnici informatici, bioingegneri, data scientists, filosofi, affinché vi sia il più multidisciplinare controllo sull’operato dell’I.A. a partire dagli inputs fino agli outputs dell’algoritmo.
Con riferimento al consenso informato, bisogna stabilire il livello ottimale di “patient-centered explicability” che consenta all’assistito di maturare una scelta consapevole sul trattamento terapeutico da intraprendere in funzione di un’effettiva “comprensione della natura della decisione medica, dei processi che ne stanno a fondamento, del livello di automatizzazione, dei dati che ne hanno orientato il contenuto” [117], evitando però di demotivare il personale medico dall’utilizzo di sistemi intelligenti nella pratica clinica
Sotto il profilo etico, la relazione medico-paziente deve costituire un punto fermo imprescindibile e va esclusa una artificiosità della prestazione sanitaria in considerazione della sua irriducibilità ad una standardizzazione di conoscenze scientifiche. Accanto alle evidenze scientifiche, invero, l’arte medica consiste nell’osservazione prudenziale e nella conoscenza esperienziale che inibiscono lo snaturamento della salute del paziente ad un mero di bene di consumo. Proprio perché la medicina non è solo scienza ma anche arte, questa può estrinsecarsi solo in una relazione umana all’insegna dell’intuizione, empatia e buon senso che le macchine non potranno mai avere.
Occorre, dunque, un’effettiva attuazione di quella “relazione di cura e fiducia” di cui all’art. 1, comma 2, legge n. 219/2017, dove il riferimento alla fiducia “circonda per così dire il nucleo della cura e contribuisce a escludere qualsiasi riduzionismo tecnico del termine di cura” [118], scongiurando un’eccessiva “overreliance” del medico nell’I.A. tramite il costante richiamo ad un lavoro umano sul piano della relazione con il paziente.
[1] L’art. 3 del Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024, noto anche come “Artificial Intelligence Act” fornisce la seguente definizione di «sistema di IA»: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
[2] G. Eysenbach, What is e-health, in Journal Medicine Internet Research, 2001, 3, 2. In particolare, l’Autore ha individuato dieci concetti dietro la “e” di “e-Health”: 1) Efficiency; 2) Enhancing quality; 3) Evidence based; 4) Empowerment; 5) Encouragement; 6) Education; 7) Enabling; 8) Extending; 9) Ethics; 10) Equity.
[3] Aa.Vv., E-health 4.0: buone pratiche cliniche e implicazioni medico-legali, in Riv. it. Med. Leg., 2022, 1, 50. Per gli Autori, la medicina 4.0. costituisce “vera e propria “rivoluzione del sapere”, caratterizzata dalla fusione di tecnologie e conoscenze già in uso nella medicina, quali quelle fisiche, biologiche e chimiche, che a loro volta si integrano con nuovi settori tecnologici, quali la bioingegneria e l’informatica”.
[4] K. Schwab, The Fourth Industrial Revolution, in World Economic Forum, 2016.
[6] Z. Dolic-R. Castro-A. Moarcas, Robots and healthcare: a solution or a problem?, in Study for the Committee on Environment, Public Health, and Food Safety, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Lussemburgo, 2019, 7 ss.; P. Love, OECD Inisights Ageing: Debate the Issues, Parigi, 2015.
[7] W.N. Price, Regulating Black-Box Medicine, in Michigan Law Review, 2017, 116, 3, 426; J R. Bambauer, Dr. Robot, in Ucla Davis Law Review, 2017, 51, 387 ss.; Aa.Vv., Clinically Applicable Deep Learning for Diagnosis and Referral in Retinal Disease, in Nature Med., 2018, 24, 1342 ss.; M. Komorowski, L.A. Celi, O. Badawi, A.C. Gordon, A. Aldo Faisal, The Artificial Intelligence Clinician Learns Optimal Treatment Strategies for Sepsis in Intensive Care, in Nature Med., 2018, 24, 1716 ss.; K. Kourou, T.P. Exarchos, K.P. Exarchos, M.V. Karamouzis, D.I. Fotiadis, Machine Learning Applications in Cancer Prognosis and Prediction, in Computational and Structural Biotechnology Journal, 2015, 13, 12 ss.
[8] Aa.Vv, International evaluation of an AI system for breast cancer screening, in Nature, 2020, 577, 89 ss; B. Kocher, Z. Emanuel, Will Robots Replace Drs.?, 5 marzo 2019, www.brookings.edu; A.M. Froomkin, I. Kerr, J. Pineau, When AIs Outperform Doctors: Confronting the Challenges of a Tort-Induced Over-Reliance on Machine Learning, in Arizona Law Review, 2019, 61, 46 ss.; J.M. Senger, P. O’Leary, Big Data and Human Medical Judgment: Regulating Next-Generation Clinical Decision Support, in I.G. Cohen, H.F. Lynch, E. Vayena, Urs Gasser (a cura di), Big Data, Health Law, and Bioethics, Cambridge University Press, 2018, 291 ss.; K. Chockley, E. Emanuel, The End of Radiology? Three Threats to the Future Practice of Radiology, in Journal of the American College of Radiology, 2016, 13, 12, 1415 ss.; Contra F. Pasquale, Automating the Professions?, in University of Maryland Francis King Carey School of Law Legal Studies Research Paper, 2016, 21, 9 ss. Secondo l’Autore, «Compared to the manufacturing, military, and finance sectors, the pace of automation has been sluggish in health care. Software has a difficult time mimicking the spontaneity, creativity, flexibility, and perceptiveness that are the hallmarks of good nurses, surgeons, psychiatrists, pediatricians, and so on. End-of-life care obviously requires that difficult decisions be made on the basis of imperfect information. The idea of mapping out every possibility in advance, and mechanizing the “termination of treatment,” is bizarre at best for anyone with personal or professional experience in an intensive care unit, nursing home, or hospice. The stakes are so high, the concept of what makes life worth living so ineffable and variable, the decision-making so intricately shared among family and providers, that routinization seems ill-advised at best, and deeply offensive at worst».
[9] I. Kerr, J. Millar, N. Corriveau, Robots and Artificial intelligence in Health Care, in J. Erdman, V. Gruben, E. Nelson (a cura di), in Canadian Health Law and Policy, LexisNexis, 2017, 257 ss.
[10] Forbes Insight, The Hospital Will See You Now, 11 febbraio 2019, www.forbes.com.
[11] H. Saetra, The foundations of a policy for the use of social robots in care, in Technology in society, 2020, 63, 2 ss.; W.N. Price, Medical AI and Contextual bias, cit., 66 ss.; Id., Artificial Intelligence in the Medical System: Four Roles for Potential Transformat, in Yale Journal of Law & Technology, 2019, 21, 122 ss.; V.J. Mar, P.H. Soyer, Artificial Intelligence for Melanoma Diagnosis: How Can We Deliver on the Promise?, in Annals Oncology, 2018, 29, 1625 ss. secondo cui “Artificial intelligence (AI) promises a more standardised level of diagnostic accuracy, such that all people, regardless of where they live or which doctor they see, will be able to access reliable diagnostic assessment”; Z. Obermeyer, E.J. Emanuel, Predicting the future: Big Data, Machine Learning, and Clinical Medicine, in New England Journal of Medicine, 2016, 375, 13, 1216 ss.
[12] Aa.Vv., What the radiologist should know about artificial intelligence – an ESR white paper, in Insights into Imaging, 2019, 10, 44, 1 ss.
[13] E. Svoboda, Your robot surgeon will see you now, 25 settembre 2019, www.nature.com.
[14] Aa.Vv., Deep learning for prediction of colorectal cancer outcome: a discovery and validation study, in The Lancet, 2020, 395, 10221, 350 ss.; V. Combs, South African clinics use artificial intelligence to expand HIV treatment, 30 ottobre 2019, www.techrepublic.com.
[15] Aa.Vv., Data Rich, Information Poor: Can We Use Electronic Health Records to Create a Learning Healthcare System for Pharmaceuticals?, in Clinical Pharmacology and Therapeutics, 2018, 105, 4, 912 ss.
[16] Aa.Vv., Deep learning enables rapid identification of potent DDR1 kinase inhibitors, in Nature Biotechnology, 2019, 37, 9, 1038 ss.
[17] C. Lee, A. Lee, How Artificial Intelligence Can Transform Randomized Controlled Trials, in Translational Vision Science & Technology, 2020, 9, 2, 9 ss.
[18] Aa.Vv., Predicting the risk of emergency admission with machine learning: Development and validation using linked electronic health records, in PLoS Medicine, 2018, 15, 11, 1 ss.
[19] Aa.Vv., Artificial intelligence outperforms human students in conducting neurosurgical audits, in Clinical Neurology and Neurosurgery, 2020, 192, 105732 ss.
[20] Accenture, The Intelligent Payer: A survival guide, 2018, www.accenture.com.
[21] M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, in Nuova giur. civ. comm., 2023, 3, 732 ss.; G. Proietti, Responsabilità civile, inadempimento e sistemi di intelligenza artificiale, in Giustiziacivile.com, 7 febbraio 2023; A. D’Adda, Danni “da robot” (specie in ambito sanitario) e pluralità di responsabili tra sistema della responsabilità civile ed iniziative di diritto europeo, in Riv. dir. civ., 2022, 5, 805 ss.; S. Mauloni, M. Mazzanti, L. Buscemi, La nuova era dell’intelligenza artificiale: problemi medico-legali, in Riv. it. med. leg., 2022, 3, 679 ss.; M. Tampieri, L’intelligenza artificiale e le sue evoluzioni. Prospettive civilistiche, Cedam, 2022, 12 ss.; M. Faccioli (a cura di), Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina, Esi, 2022, 57 ss.; U. Ruffolo, L’intelligenza artificiale in sanità: dispositivi medici, responsabilità e “potenziamento”, in Giur. it., 2022, 502 ss.; G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, in Danno e resp., 2022, n. 6, 669 ss.; G. Pasceri, Intelligenza artificiale, algoritmo e machine learning. La responsabilità del medico e dell’amministrazione sanitaria, Giuffrè, 2021, 15 ss.; A. Biancardo, Problematiche etico giuridiche relative all’utilizzo dell’intelligenza artificiale in ambito sanitario, in Jus-online, 2021; F. Lagioia, L’intelligenza artificiale in sanità: un’analisi giuridica, Giappichelli, 2020, 13 ss.; A. Fusaro, Quale modello di responsabilità per la robotica avanzata? Riflessioni a margine del percorso europeo, in Nuova giur. civ. comm., 2020, 6, 1344 ss.; V. De Berardinis, L’impiego delle nuove tecnologie in medicina, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pacini, 2020, 489 ss.; C. Perlingieri, Responsabilità civile e robotica medica, in Tecnologie e Diritto, 2020, n. 1, 161 ss.; E. A. Ferioli, Digitalizzazione, Intelligenza artificiale e robot nella tutela della salute, in A. D’Aloia (a cura di)Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Franco Angeli, 2020, 423 ss.; V. Di Gregorio, Robotica e intelligenza artificiale: profili di r.c. in campo sanitario, in Resp. med., 2019, 4, 433 ss.; G. Di Rosa, I robot medici, in U. Salanitro (a cura di), Smart, la persona e l’infosfera, Pacini, 2022, 115 ss.; M.S. Nicci, G. Vetrugno, Intelligenza artificiale e responsabilità nel settore sanitario, in U. Ruffolo (a cura di), La nuova responsabilità medica, Giuffrè, 2018, 237 ss., 601 ss.; U. Ruffolo, Artificial intelligence e nuove responsabilità nel settore medico e farmaceutico, in U. Ruffolo (a cura di), La nuova responsabilità medica, Giuffrè, 2018, 237 ss.
[22] Cfr. nota 1.
[23] D. Arnold, T. Wilson, What doctor? Why AI and robotics will defi ne New Health, 2017, 4 ss., www.pwc.com.
[24] I. Kerr, J. Millar, N. Corriveau, Robots and Artificial intelligence in Health Care, cit., 257.
[25] V. De Berardinis, L’impiego delle nuove tecnologie in medicina, cit., 490-491
[26] F. Lagioia, L’intelligenza artificiale in sanità: un’analisi giuridica, cit., 22 ss.
[27] M. Butter, A. Rensma, J. Boxsel, S. Kalisingh, M. Schoone, M. Leis, G.J. Gelderblom, G. Cremers, M. Wilt de, W. Kortekaas, A. Thielmann, K. Cuhls, A. Sachinopoulou, I. Korhonen, Robotics for healthcare: Final report, European Commission EC, 2008, www.ehealthnews.eu.
[28] In area clinica, le tecnologie emergenti sono impiegate prevalentemente per la chirurgia robotica e per il supporto alle decisioni diagnostiche e terapeutiche. Sotto il primo profilo, si distinguono: i) capsule robotiche per la localizzazione e rimozione dei tessuti; ii) sistemi robotici per la microchirurgia; iii) sistemi robotici per la chirurgia di precisione; iv) sistemi per la chirurgia mini invasiva; v) sistemi di telechirurgia; vi) sistemi Nanobot e Microbot. Sotto il secondo profilo, si menzionano: i) telediagnostica e monitoraggio; ii) sistemi intracopeorei e Smart medical capsules; iii) sistemi di intelligenza artificiale.
[29] In area riabilitativa, si riscontrano: i) sistemi di supporto alla coordinazione motoria; ii) sistemi di ausilio alla mobilità; iii) protesi intelligenti.
[30] In area assistenziale, si riscontrano: i) sistemi di ausilio ad attività logistiche; ii) sistemi di monitoraggio dei pazienti; iii) sistemi di supporto per attività di assistenza fisica; iv) sistemi di ausilio ad attività paramediche.
[31] F. Lagioia, L’intelligenza artificiale in sanità: un’analisi giuridica, cit., 44. Per l’Autrice, viene in rilievo un primo criterio relativo all’area applicativa di riferimento, giacché l’indagine sui profili giuridici va contestualizzata a seconda del campo operativo della tecnologia in esame. Un secondo aspetto concerne l’ambiente che può variare da ospedaliero o domestico nonché tra controllato o non controllato. Nel primo caso, l’utilizzo delle nuove tecnologie avviene solo da parte di personale specializzato, autorizzato e addestrato. Nel secondo caso, viceversa, l’interazione con i sistemi intelligenti e robotici coinvolge soggetti privi di competenze specialistiche, come pazienti o familiari. Un terzo elemento riguarda la natura materiale o immateriale della strumentazione. Un quarto criterio rinvia all’interazione uomo-macchina a seconda del tipo di contatto che si instaura tra sistema intelligente e individuo da cui a sua volta dipende la determinazione del tipo di rischio e di danno per coloro che vi entrano in contatto. Un quinto aspetto attiene all’autonomia del sistema rispetto al controllo e supervisione dell’uomo. Un sesto ed ultimo criterio riguarda la trasparenza e spiegabilità del sistema tecnologico in relazione al proprio funzionamento.
[32] A. Bertolini, Artificial Intelligence and Civil Liability, cit., 111 secondo cui “no one-size-fits-all approach may be adopted, even within a relatively narrow-tailored class of applications. Under the label ‘medical robots’ or ‘medical AI’, in fact, fall a broad variety of devices, which differ among one another for their technical features, diffusion, function and use”.
[33] In USA, la National Highway and Traffic Safety Administration (NHTSA) ha adottato un sistema basato su cinque livelli di autonomia: il primo livello si riferisce ad auto dotate di tecnologie che supportano il conducente in determinati momenti della guida, come l’assistente di parcheggio e cruise control; il secondo livello combina sterzo e accelerazione; il terzo livello riguarda auto altamente automatizzate, dotate di sistemi capaci di sostituirsi al guidatore, pronto a riprendere il controllo del mezzo; il quarto livello si connota per il fatto che non si parla più di guida assistita ma di guida autonoma assoluta, in cui il conducente diventa un semplice passeggero lungo certi percorsi automatizzati; il quinto ed ultimo livello
[34] S. Van Rysewyk, M. Pontier (a cura di), Machine Medical Ethics. Intelligent Systems, Control and Automation: Science and Engineering, Cham, 2015.
[35] La dematerializzazione si riferisce alla riduzione della condizione psico-fisica del paziente ad un insieme di dati e di informazioni.
[36] La decentralizzazione riguarda la possibilità di processare informazioni, formulare diagnosi, elaborare trattamenti, realizzare interventi chirurgici da remoto senza la necessaria presenza fisica on-site del sistema intelligente.
[37] La disintermediazione concerne l’intromissione dell’AI nel rapporto medico paziente.
[38] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, punti 31-35.
[39] P. Zuddas, Intelligenza artificiale in medicina: alcune risposte – significative, ma parziali – offerte dal codice di deontologia medica (in materia di non discriminazione, consenso informato e relazione di cura), in Riv. it. inf e dir., 2024, 2, 4; W. Buelens, Robots and AI in the healthcare sector: potential existing legal safeguards against a(n) (un)justified fear for “dehumanisation” of the physician-patient relationship, in J. De Bruyne, C. Vanleenhove (a cura di), Artificial Intelligence and the Law, 2021, 492; K. Astromskė, E. Peičius, P. Astromskis, Ethical and legal challenges of informed consent applying artificial intelligence in medical diagnostic consultations, in AI & Society, 2020, 2 ss.; F. Cerea, Intelligenza artificiale a servizio dei pazienti per il contrasto a Covid-19, in Nuova giur. civ., 2020, 3, 49 ss.; Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, punto 32.
[40] A. Bertolini, G. Aiello, Robot companions: A legal and ethical analysis, in The Information Society, 2018, 34, 3, 132; I. Kerr, J. Millar, N. Corriveau, Robots and Artificial intelligence in Health Care, cit., 269; K. Darling, Who is Johnny, Anthropomorphic framing in Human-Robot Intraction, Integration and Policy, in P. Lin, R. Jenkins, K. Abney (a cura di), Robot etchics 2.0: From Autonomous cars to Artificial Intelligence, Springer, 2017, 173 ss.
[41] N. Sharkey, A. Sharkey, The eldercare factory, in Gerontology, 2012, 3, 58, 282 ss.
[42] R. Sparrow, L. Sparrow, The hands of machines? The future of aged care, in Minds Machine, 2006, 16, 2, 141 ss.
[43] A.M.C. Isaac, W. Bridewell, White lies on silver tongues: why robots need to deceive (and how), in P. Lin, J. Ryan, K. Abney (a cura di), Robot Ethics 2.0, Oxford University Press, 2017; M. Coeckelbergh, Care robots and the future of ICT-mediated elderly care: a response to doom scenarios, in AI Society, 2016, 31, 4, 455 ss.; A. Sharkey, N. Wood, The Paro seal robot: demeaning or enabling, in Proceedings of AISB, 2014.
[44] G. Pasceri, Intelligenza artificiale, algoritmo e machine learning. La responsabilità del medico e dell’amministrazione sanitaria, cit., 120-121; F. Cerea, Intelligenza artificiale a servizio dei pazienti per il contrasto a Covid-19, cit., 49 ss.; F. Cabitza, C. Alderighi , R. Rasoini, G.F. Gensini, Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina, in Recenti progressi in medicina, 2017, 108, 10, 398-399.
[45] A. Povyakalo, E. Alberdi, L. Strigini, P. Ayton, How to discriminate between computer-aided and computer hindered decisions: a case study in mammography, in Medical Decision Making, 2013, 33, 1, 98 ss. Dall’analisi condotta da un gruppo di ricercatori della City University of London sulla lettura di 180 mammogrammi da parte di 50 professionisti, è emersa una riduzione della sensibilità diagnostica del 14,5% per il rilievo di cancro mammario nei medici più esperti, quando a questi venivano presentate immagini di difficile lettura corredate con l’interpretazione da parte del computer, mentre solo un aumento dell’1,6% della sensibilità diagnostica è stato rilevato grazie al supporto del computer nel sottogruppo di medici meno esperti, quando a questi venivano presentati casi di più semplice interpretazione. I risultati dimostrano che l’eccessivo affidamento nei sistemi di Machine Learning da parte degli operatori influisce la loro performance e che serve ancora molta ricerca per individuare le dinamiche di questo fenomeno, soprattutto in rapporto alla diversa esperienza dei medici coinvolti e alla diversa difficoltà dei casi loro presentati.
[46] G. Pasceri, Intelligenza artificiale, algoritmo e machine learning. La responsabilità del medico e dell’amministrazione sanitaria, cit., 121; Aa.Vv., Ethics of artificial intelligence in radiology: summary of the joint European and North American multisociety statement, in Insight imagine, 2019, 1, 10, 101 ss.; W. Nicholson Price II, Medical AI and Contextual bias, cit., 102. Per l’Autore, “even if providers currently know what the ideal diagnostic or treatment pathway is, they may not actually exercise independent judgment when confronted with an algorithm providing a different conclusion. Automation bias refers to a phenomenon where individuals rely on the results of automation even when they know or should know that the automation is wrong. Sometimes, the individuals follow incorrect recommendations (commission errors), and sometimes they fail to notice problems when the software does not flag them for review (omission errors)”; F. Cabitza, C. Alderighi, R. Rasoini, G.F. Gensini, Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina, cit., 398-399.
[47] E. Neri, F. Coppola, V. Miele, C. Bibbolino, R. Grassi, Artificial intelligence: Who is responsible for the diagnosis?, in La radiologia medica, 2020, 125, 520 ss.; K. Chockley, E. Emanuel, The End of Radiology? Three Threats to the Future Practice of Radiology, in Journal of the American College Radiology, 2016, 13, 12, 1415 ss. Contra, H. Harvey, Separating the art of medicine from Artificial intelligence, 21 dicembre 2017, towardsdatascience.com.
[48] A.M. Froomkin, I. Kerr, J. Pineau, When AIs Outperform Doctors: Confronting the Challenges of a Tort-Induced Over-Reliance on Machine Learning, cit., 36 per cui “Once ML systems displace doctors in a specialty, the demand for such doctors will shrink as will training opportunities for human experts. Because we will continue to need humans to generate much of the training data for future ML systems, this reduction in human competence may create roadblocks to the continuing improvement of ML systems especially once new diagnostic sensors are available”.
[49] D. Schiff, J. Borenstein, How should clinicians communicate with patients about the roles of artificially intelligent team members?, in AMA Journal of Ethics, 2019, 21, 2, 138 ss.; D.S. Char, N.H. Shah, D. Magnus, Implementing machine learning in health care – addressing ethical challenges, in New England Journal of Medicine, 2018, 378, 11, 981-983; Nuffield Council on Bioethics, Artificial intelligence (AI) in healthcare and research, 2018, www.nuffieldbioethics.org; S. Bird, S. Barocas, K. Crawford, F. Diaz, H. Wallach, Exploring or Exploiting? Social and Ethical Implications of Autonomous Experimentation in AI, in Workshop on Fairness, Accountability, and Transparency in Machine Learning, 2016, www.microsoft.com.
[50] D. Khullar, A.I. Could Worsen Health Disparities, 31 gennaio 2019, www.nytimes.com dove si legge che “If, for example, poorer patients do worse after organ transplantation or after receiving chemotherapy for end-stage cancer, machine-learning algorithms may conclude such patients are less likely to benefit from further treatment – and recommend against it”.
[51] W. Nicholson Price II, Medical AI and Contextual bias, cit., 91 ss. dove si legge che “Algorithmic translation can cause problems in care when there are systematic differences between the patient populations used to train the algorithm and those where the algorithm is later used. If the patients in the training data – the High-Resource Hospital – differ systematically from the patients in low-resource settings where the algorithm is deployed as part of an AI system, the system won’t do a good job dealing with those patients. Patient population differences, including ancestral origin/genetic variation, socioeconomic status, or general health status, can influence recommendations for treatment in many ways. These differences can influence both proper diagnosis and proper treatment”.
[52] B. Mittelstadt, The impact of Artificial Intelligence on the doctor-patient relationship, Council of Europe, December 2021, 6.
[53] J. R. Bambauer, Dr. Robot, cit., 397. L’Autore sottolinea che la segnalazione di conflitti di interesse ha senso se il paziente ha possibilità di scegliere un altro dottore. Per converso, diventa inutile la predetta segnalazione in mancanza di possibilità di scelta là ove tutti i fornitori di sistemi intelligenti in medicina siano mossi da interessi finanziari. In tal caso, la soluzione non è la segnalazione all’esterno di conflitti di interesse ma la doverosa assenza di fini ulteriori al c.d. best interest del paziente.
[54] Questa preoccupazione si accompagna al rischio di frodi, là ove i sistemi intelligenti siano finalizzati a favorire illecitamente i prodotti medicali e farmaceutici di una certa compagnia.
Press Release, Department of Justice, Electronic Health Records Vendor to Pay $145 Million to Resolve Criminal and Civil Investigations, 27 gennaio 2020 www.justice.gov.
[55] Aa.Vv., Artificial intelligence: Who is responsible for the diagnosis?, cit., 520 ss.
[56] il Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024, noto anche come “Artificial Intelligence Act” disponibile al seguente link: eur-lex.europa.eu.
[57] La Direttiva (UE) 2024/2853 del Parlamento Europeo e del Consiglio del 23 ottobre 2024, disponibile al seguente link: eur-lex.europa.eu.
[58] Proposta di Direttiva del Parlamento Europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale), Bruxelles, 28 settembre 2022, COM(2022) 496 final, disponibile al seguente link: eur-lex.europa.eu.
[59] A.F. Uricchio, La sfida della strategia europea dell’intelligenza artificiale tra regolazione e tassazione, in A.F. Uricchio, G. Riccio, U. Ruffolo (a cura di), Intelligenza artificiale tra etica e diritti. Prime riflessioni a seguito del libro bianco dell’Unione europea, Cacucci, 2020, 193 ss.
[60] A. D’Aloia, Il diritto verso il “mondo nuovo”. Le sfide dell’intelligenza artificiale, in BioLaw Journal – Riv. BioDiritto, 2019, 1, 30; A. Celotto, Come regolare gli algoritmi: il difficile bilanciamento tra scienza, etica e diritto, in Anal. giur. dell’econ., 2019, 1, 56.
[61] Consiglio europeo, riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) – Conclusioni, EUCO 13/20, 2020, 6.
[62] Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL)).
[63] Art. 113 del Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024
[64] A. Fedi, Tre osservazioni sull’AI Act e il suo rapporto con il diritto dei contratti, in Riv. dir. media – Medialaw, 20 dicembre 2024, www.medialaws.eu. Per l’Autore, esemplificativamente, la violazione, da parte del fornitore, delle norme sui sistemi di AI ad alto rischio, dovrebbe ragionevolmente innescare la sua responsabilità per vizi o mancanza di qualità (artt. 1492 e 1497 o 1578 o 1667 cod. civ.), a seconda dei casi di vendita, licenza e sviluppo su commissione.
[65] A. Fedi, Tre osservazioni sull’AI Act e il suo rapporto con il diritto dei contratti, in Riv. dir. media – Medialaw, 20 dicembre 2024, www.medialaws.eu.
[66] G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 670.
[67] M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, cit., 742.
[68] G. M. Noli, Product liability e settore medico-farmaceutico, in u. Ruffolo (a cura di), La nuova responsabilità medica, Giuffrè, 2018, 285 ss.
[69] R. Scotti, La responsabilità civile dei danni cagionati da sistemi di intelligenza artificiale in ambito sanitario, in Giust. civ., 2024, 1, 165.
[70] M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, cit., 735.
[71] Si tratta di un’esigenza, quella di evitare una deminutio della tutela del danneggiato che abbia subito un pregiudizio da un sistema di I.A. rispetto a chi sia stato leso dalla stessa attività eseguita in maniera tradizionale, che trascende l’ambito sanitario e che presenta una portata generale: cfr. sul punto amplius, U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione europea, in Riv. dir. civ., 2020, 1254 ss.
[72] Per una ricostruzione, cfr.: E.A. Emiliozzi, La responsabilità medica, Giuffrè, 2023; N. Todeschini (a cura di), La responsabilità in medicina. Dalla discussione del caso pratico alla regola. Una guida operativa completa alla riforma Gelli Bianco; la colpa civile e penale, il consenso informato, i procedimenti e i profili assicurativi, Utet Giuridica, 2023; C. Scognamiglio, La responsabilità a doppio binario, in G. Iudica (a cura di), La tutela della persona nella nuova responsabilità sanitaria, Giuffrè, 2019; R. De Matteis, Le responsabilità in ambito sanitario. Il regime binario: dal modello teorico ai risvolti applicativi, Wolters Kluwer, 2017; A. Procida Mirabelli Di Lauro, La riforma della responsabilità sanitaria tra amnesie legislative e deviazioni giurisprudenziali, in Danno e resp., 2023, n. 2, 129 ss.
[73] G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 674 s.; G. Pasceri, Intelligenza artificiale, algoritmo e machine learning. La responsabilità del medico e dell’amministrazione sanitaria, cit., 116; M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, cit., 736; A. Colaruotolo, Intelligenza artificiale e responsabilità medica: novità, continuità e criticità, in Resp. med., 2022, 306; V. Di Gregorio, Robotica e intelligenza artificiale: profili di r.c. in campo sanitario, cit., 442; A. Fiorentini, Machine Learning e dispositivi medici: riflessioni in materia di responsabilità civile, in Corr. giur., 2021, 10, 1261;
[74] V., fra gli altri, G. Sicchiero, Dell’adempimento. Artt. 1176-1179, in Comm. Schlesinger, Giuffrè, 2016, 194; M. Azzalini, Obbligazioni di mezzi e obbligazioni di risultato. Categorie giuridiche travisate, Cedam, 2012, 80 ss.; G. Montanari Vergallo, La nuova responsabilità medica dopo la riforma Gelli-Bianco, Dike Giuridica, 2017, 84 ss.; S. Viciani, Errore in medicina e modelli di responsabilità, ESI, 2016, 135 ss.; M. De Luca, M. Ferrante, A. Napolitano, La responsabilità civile in ambito sanitario (artt. 7-9 l. 8 marzo 2017, n. 24), in Nuove leggi civ. comm., 2017, 760 ss.; A. Di Majo, Il giudizio di responsabilità civile del medico dopo la legge Gelli e cioè la perizia “guidata”, in Giur. it., 2018, 844 ss.; Id., La salute responsabile, Giappichelli, 2018, 29 ss.
[75] C. Perlingieri, Responsabilità civile e robotica medica, cit., 171 ss.
[76] W.N. Price I, Medical Malpractice and Black-Box Medicine, in Aa.Vv (a cura di), Big Data, Health Law, and Bioethics, Cambridge University Press, 2018, 300 ss.; Fenech, Strukelj, Buston, Ethical, Social, and Political Challenges of Artificial Intelligence in Health, 2018, 35, wellcome.org; Aa.Vv., Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence (AI) and autonomous robotic surgery, in The International Journal of Medical Robotics and Computer Assisted Surgery, 2018, 7 ss.
[77] G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 676; A. Colaruotolo, Intelligenza artificiale e responsabilità medica: novità, continuità e criticità, cit., 306.
[78] Il duty to stay abreast è stato per la prima volta riconosciuto dalla Corte d’appello di Washington nel caso Wash. Hospital Centre Ctr., 579 A.2d 177 (1990)
[79] W.N. Price II, S. Gerke, G. Cohen, Potential liability for physicians using artificial Intelligence, in JAMA, 2019, 1765 secondo cui “Physicians have a substantial role in shaping the liability issue. In their practices, physicians should learn how to better use and interpret AI algorithms, including in what situations an available medical AI should be applied and how much confidence should be placed in an algorithmic recommendation”; W. Buelens, Robots and AI in the healthcare sector: potential existing legal safeguards against a(n) (un)justified fear for “dehumanisation” of the physician-patient relationship, cit., 496; U. Ruffolo, Artificial intelligence e nuove responsabilità nel settore medico e farmaceutico, cit., 258
[80] Z. Dolic, R. Castro, A. Moarcas, Robots and healthcare: a solution or a problem?, cit., 20.
[81] M. Faccioli, La responsabilità civile per difetto di organizzazione delle strutture sanitarie, Pacini Giuridica, 2018.
[82] R. Scotti, La responsabilità civile dei danni cagionati da sistemi di intelligenza artificiale in ambito sanitario, cit., 168 ss.
[83] R. Tuccillo, Intelligenza artificiale e prestazioni sanitarie: impatto sulla relazione di cura e sullo statuto della responsabilità, in Dir. merc. tecn., 16 maggio 2022, 31 ss.; G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 674; A. Colaruotolo, Intelligenza artificiale e responsabilità medica: novità, continuità e criticità, cit., 306; F. Lagioia, L’intelligenza artificiale in sanità: un’analisi giuridica, cit., 95; C. Perlingieri, Responsabilità civile e robotica medica, cit., 170;. A. Fiorentini, Machine Learning e dispositivi medici: riflessioni in materia di responsabilità civile, cit., 1262 ss.
[84] A. Colaruotolo, Intelligenza artificiale e responsabilità medica: novità, continuità e criticità, cit., 306; G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 678; G. Pasceri, Intelligenza artificiale, algoritmo e machine learning. La responsabilità del medico e dell’amministrazione sanitaria, cit., 101; A. Fiorentini, Machine Learning e dispositivi medici: riflessioni in materia di responsabilità civile, cit., 1262 ss.
[85] G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 677; G. Pasceri, Intelligenza artificiale, algoritmo e machine learning. La responsabilità del medico e dell’amministrazione sanitaria, cit., 101; A. Fiorentini, Machine Learning e dispositivi medici: riflessioni in materia di responsabilità civile, cit., 1263.
[86] In senso contrario v., peraltro, A. D’Adda, Danni “da robot” (specie in ambito sanitario) e pluralità di responsabili tra sistema della responsabilità civile ed iniziative di diritto europeo, cit., 813, secondo cui, “nel caso della struttura [...], si potrebbe ritenere che come ad essa, ai sensi dell’art. 1228 c.c., viene imputata in via oggettiva la condotta negligente dell’ausiliario umano, un tale esito debba essere guadagnato anche nel caso di sinistro cagionato dall’ausiliario macchina artificiale. [...] Certo, si potrebbe ritenere che proprio il difettoso funzionamento della macchina “incontrollabile” integri quella impossibilità non imputabile – appunto insuperabile mediante lo sforzo diligente – che è l’unica ragione di esclusione della responsabilità da inadempimento [della struttura sanitaria]. Ma sembra invece più ragionevole imputare a chi decide di servirsi della macchina di intelligenza artificiale nell’esercizio della propria attività [...] d’impresa i danni che il difettoso funzionamento di quest’ultima arreca al creditore: in una logica analoga a quella che imputa al debitore la responsabilità per il fatto dell’ausiliario”.
[87] R. Scotti, La responsabilità civile dei danni cagionati da sistemi di intelligenza artificiale in ambito sanitario, cit., 170 ss. Sul punto vd. anche per ulteriori riferimenti C. Scognamiglio, La responsabilità sanitaria nel nuovo “diritto vigente”: problemi e prospettive, in M. Faccioli, S. Troiano (a cura di), Risarcimento del danno e assicurazione nella nuova disciplina della responsabilità sanitaria (l. 8 marzo 2017, n. 24), Esi, 2019, 29 ss.; C. Scognamiglio, La responsabilità a doppio binario, in G. Iudica (a cura di), La tutela della persona nella nuova responsabilità sanitaria, Giuffrè, 2019, 92 ss.; M. Faccioli, La responsabilità civile per difetto di organizzazione delle strutture sanitarie, 81 ss.
[88] Per il necessario accertamento preventivo del nesso di causalità rispetto all’elemento soggettivo della colpa, cfr. Cass., sez. un., 11 gennaio 2008, n. 577; Cass., 21 luglio 2011, n. 15991, in Danno e resp., 2013, 42 ss. con nota di B. Tassone; in Resp. civ. e prev., 2011, 12, 2496, con nota di G. Miotto; Cass., 16 ottobre 2007, n. 21619, in Danno e resp., 2008, 1, 43.
[89] ex multis Cass., 6 luglio 2020, n. 13872, in Foro it., 2020, 11, I, 3467 per cui “La regola del “più probabile che non” implica che rispetto ad ogni enunciato si consideri l’eventualità che esso possa essere vero o falso, ossia che sul medesimo fatto vi siano un’ipotesi positiva ed una complementare ipotesi negativa”, sicché, tra queste due ipotesi alternative, il giudice deve scegliere quella che, in base alle prove disponibili, ha un grado di conferma logica superiore all’altra”. In dottrina, cfr.: L. Nocco, Il nesso causale e la responsabilità sanitaria: un itinerario in perenne evoluzione, in Danno e resp., 2012, 953; B. Tassone, Responsabilità contrattuale, prova del nesso, concause e «più probabile che non», in Foro it., 2018, 2, 566 ss.
[90] S. Mauloni, M. Mazzanti, L. Buscemi, La nuova era dell’intelligenza artificiale: problemi medico-legali, cit., 698 ss.; G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 678; A. Colaruotolo, Intelligenza artificiale e responsabilità medica: novità, continuità e criticità, cit., 307; F. Lagioia, L’intelligenza artificiale in sanità: un’analisi giuridica, cit., 109.
[91] G. Travaglino, La questione dei nessi di causa, Ipsoa, 2013; R. Pucella, La causalità «incerta», Giappichelli, 2007.
[92] Cass., 26 novembre 2020, n. 26907 in Foro it., 2021, 2, I, 524; Cass., 26 luglio 2017, n. 18392, in Foro it., 2017, 11, I, 3358; Cass., 11 novembre 2019, nn. 28991-28992, in Foro it. – Speciali, 2020, I, con note di R. Pardolesi, R. Simone, G. D’Amico, F. Macario, F. Piraino, U. Izzo; in Danno e resp., 2020, 1, con note di G. Ponzanelli, M. Franzoni, A. Procida Mirabelli Di Lauro. In dottrina, M. Faccioli, “Presunzioni giurisprudenziali” e responsabilità sanitaria, in Contr. e impr., 2014, 79 ss.
[93] L’orientamento si è come noto consolidato con le pronunce di “San Martino 2019” rese da Cass. civ., 11 novembre 2019, nn. 28991-28992, in Resp. civ. e prev., 2020, 193, con note di M. Franzoni, Onere della prova e il processo e C. Scognamiglio, L’onere della prova circa il nesso di causa nella responsabilità contrattuale del sanitario. Per un approfondimento, cfr. ex multis N. Rizzo, La causalità civile, Giappichelli, 2023, 72 ss.; C. Scognamiglio, La Cassazione mette a punto e consolida il proprio orientamento in materia di onere della prova sul nesso di causa nella responsabilità contrattuale del sanitario, in Danno e resp., 2020, 307 ss.; F. Piraino, Inadempimento e causalità nelle obbligazioni di fare professionale, in Danno e resp., 2020, 5, 559 ss.; A. Plaia, La responsabilità del medico e l’argomento statistico, in Contratti, 2020, 3, 341 ss.; G. Gioia, La prova del nesso causale nella responsabilità medica, in Riv. trim. dir. e proc. civ., 2019, 4, 1341 ss.
[94] R. Scotti, La responsabilità civile dei danni cagionati da sistemi di intelligenza artificiale in ambito sanitario, cit., 178; A.G. Grasso, Diagnosi algoritmica errata e responsabilità medica, cit., 352.
[95] G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, cit., 673. Per l’Autore, maggiore è “il livello di controllo che i professionisti manterranno sui dispositivi medici intelligenti, poiché più sarà ampio il margine di discrezionalità di cui gode il professionista nel decidere se allinearsi o meno ai risultati ottenuti dai dispositivi, maggiore sarà la sua responsabilità. Il secondo parametro sarà rappresentato dal livello di trasparenza dei processi decisionali della macchina e dal numero di informazioni che i produttori forniranno agli utilizzatori in ordine al funzionamento e alla precisione dei dispositivi intelligenti, poiché maggiori saranno trasparenza dei processi e numero delle informazioni fornite e minori saranno le responsabilità dei produttori, dal momento che i professionisti saranno posti nelle condizioni di prendere decisioni consapevoli sul trattamento dei pazienti (assumendone la relativa responsabilità)”.
[96] M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, cit., 732.
[97] Cass., 16 ottobre 2007, n. 21748 con nota di D. Simeoli, Il rifiuto di cure: la volontà presunta o ipotetica del soggetto incapace, in Giust. civ., 2008, 7-8, 2008, 1727 ss.
[98] D. Schneeberger, K. Stoger, A. Holzinger, The European Legal Framework for Medical AI, cit., 219-220; R. Robbins, E. Brodwin, An invisible hand: Patients aren’t being told about the AI systems advising their care, 15 luglio 2020, www.statnews.com; F. Cerea, Intelligenza artificiale a servizio dei pazienti per il contrasto a Covid-19, cit., 49 secondo cui “Anche il profilo del consenso all’atto medico risulta inciso dall’impiego di sistemi di autoapprendimento e ciò in due momenti distinti: a monte, all’atto della scelta di fare ricorso a tecnologie intelligenti, scelta che richiede l’imprescindibile coinvolgimento del paziente e a valle per rispondere alla richiesta del malato di spiegazione della decisione adottata dal sistema”.
[99] D. Morana, T. Balduzzi, F. Morganti, La salute “intelligente”: eHealth, consenso informato e principio di non-discriminazione, in federalismi.it, 28 dicembre 2022, 145. Per gli Autori, il consenso informato trova un fondamento costituzionale – come la stessa libertà di cura – nel comma 2 dell’art. 32 Cost., in forza del quale “nessuno può essere obbligato a un determinato trattamento sanitario se non per disposizione di legge”. Ne deriva che la regola, è la libertà di rifiutare i trattamenti sanitari, e dunque la volontarietà dei trattamenti: ma, poiché è volontario solo quel trattamento sanitario per il quale sia stato acquisito il consenso, la consensualità è “un corollario necessario” della volontarietà.
[100] Art. 1, 2 comma, legge n. 219/2017.
[101] C. De Menech, Intelligenza artificiale e autodeterminazione in materia sanitaria, in M. Faccioli (a cura di), Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina, cit., 16 ss.
[102] L. d’Avack, Consenso informato e scelte di fine vita, 2020, Giappichelli, 47-48; Comitato Nazionale per la Bioetica, Intelligenza Artificiale e medicina: aspetti etici, cit., ove si legge: “Ma l’informativa è tutt’altro che facile da dare e l’autonomia/consenso si complica con l’IA che suscita un senso di disorientamento in considerazione della velocità con cui le tecnologie stanno stravolgendo il mondo conosciuto”, con conseguente dovere in capo al medico di “mediare questa comunicazione”.
[103] G. Cohen, Informed Consent and Medical Artificial intelligence: What to tell the patient?, in The George Town Law Journal, 2020, 108, 1442 ss.
[104] Artt. 2-13-32 Cost.; art. 3 Carta dei diritti fondamentali dell’Unione europea; art. 5 Convenzione sui diritti dell’uomo e sulla biomedicina; art. 24 Convenzione sui diritti del fanciullo; art. 1 ss., legge n. 219/2017.
[105] Comitato Nazionale Bioetica-Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita, Intelligenza artificiale e medicina: aspetti etici, cit., 14.
[106] W. Buelens, Robots and AI in the healthcare sector: potential existing legal safeguards against a(n) (un)justified fear for “dehumanisation” of the physician-patient relationship, cit., 502.
[107] P. Zuddas, Intelligenza artificiale in medicina: alcune risposte – significative, ma parziali – offerte dal codice di deontologia medica (in materia di non discriminazione, consenso informato e relazione di cura), cit., 15.
[108] R. Tuccillo, Intelligenza artificiale e prestazioni sanitarie: impatto sulla relazione di cura e sullo statuto della responsabilità, cit., 34 ss.; S. Mauloni, M. Mazzanti, L. Buscemi, La nuova era dell’intelligenza artificiale: problemi medico-legali, cit., 696; A. Biancardo, Problematiche etico giuridiche relative all’utilizzo dell’intelligenza artificiale in ambito sanitario, cit., 144.
[109] M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, cit., 740; C. De Menech, Intelligenza artificiale e autodeterminazione in materia sanitaria, cit., 25.
[110] P. Zuddas, Intelligenza artificiale in medicina: alcune risposte – significative, ma parziali – offerte dal codice di deontologia medica (in materia di non discriminazione, consenso informato e relazione di cura), cit., 17, faccioli, 740; C. De Menech, Intelligenza artificiale e autodeterminazione in materia sanitaria, cit., 28.
[111] T. Hoeren, M. Niehoff, Artificial intelligence in medical diagnoses and the right to explanation, in Eur Data Protection Law Review, 2018, 4, 308 ss.; D. Schiff, J. Borenstein, How Should Clinicians Communicate with Patients About the Roles of Artificially Intelligent Team Members?, in AMA Journal of Ethics, 2019, 21, 2, 140 secondo cui “The opacity of an AI system can make it difficult for health care professionals to ascertain how the system arrived at a decision and how an error might occur. For instance, can physicians or others understand why the AI system made the prediction or decision that led to an error, or is the answer buried under unintelligible layers of complexity? Will physicians be able to assess whether the AI system was trained on a data set that is representative of a particular patient population? And will physicians have information about comparative predictive accuracy and error rates of the AI system across patient subgroups? In short, if physicians do not fully understand (yet) how to explain an AI system’s predictions or errors, how could this knowledge deficit impact the quality of an informed consent process and medical care more generally?”.
[112] W.N. Price, Medical Malpractice and Black-Box Medicine, cit., 299.
[113] D. Morana, T. Balduzzi, F. Morganti, La salute “intelligente”: eHealth, consenso informato e principio di non-discriminazione, cit., 150.
[114] M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, cit., 743; A. Colaruotolo, Intelligenza artificiale e responsabilità medica: novità, continuità e criticità, cit., 310; A. Perin, Standardizzazione, automazione e responsabilità medica. Dalle recenti riforme alla definizione di un modello d’imputazione solidaristico e liberale, in BioLaw Journal – Riv. BioDiritto, 2019, 1, 231 ss.
[115] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, punto 33.
[116] G. Guerra, Profili di responsabilità del produttore di robot chirurgico nell’ordinamento americano, cit., 226-227; Comitato Nazionale Bioetica-Comitato Nazionale per la biosicurezza, le biotecnologie e le scienze della vita, Intelligenza artificiale e medicina: aspetti etici, 29 maggio 2020, bioetica.governo.it, 15-16; Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, punto 33, dove si “sottolinea l’importanza di un’adeguata istruzione, formazione e preparazione per il personale sanitario, quali i medici e gli assistenti sanitari, al fine di garantire il grado più elevato possibile di competenza professionale nonché per salvaguardare e proteggere la salute dei pazienti; evidenzia la necessità di definire i requisiti professionali minimi che un chirurgo deve possedere per poter far funzionare ed essere autorizzato a usare i robot chirurgici”.
[117] F. Cerea, Intelligenza artificiale a servizio dei pazienti per il contrasto a Covid-19, cit., 49.
[118] P. Zatti, Spunti per una lettura sulla legge del consenso informato e DAT, in Nuova giur. civ., 2018, I, 247 ss.