Il saggio si occupa delle applicazioni dell'intelligenza artificiale in materia sanitaria, avuto riguardo al contesto europeo, e della tutela delle persone fragili con particolare riferimento alle pratiche di potenziamento umano alla luce del principio fondamentale di dignità umana.
The essay deals with the applications of artificial intelligence in healthcare, with regard to the European context, and with the protection of vulnerable people with particular reference to human enhancement practices in the light of the fundamental principle of human dignity.
1. Intelligenza artificiale, automazione sanitaria e prospettive di diritto europeo - 2. Human enhancement, mantenimento della condizione umana e tutela della dignità - NOTE
L’intelligenza artificiale assume un rilievo crescente nel settore sanitario, campo elettivo della vulnerabilità dell’essere umano, avuto riguardo alla elevata capacità di autoapprendimento e di autoprogrammazione della stessa, con funzioni non solo migliorative ma talora sostitutive delle performance di spettanza esclusiva una volta dell’ars medica, a fronte ora della emergente automazione sanitaria con conseguente declassamento del medico a controllore ex post del risultato della condotta del sistema “intelligente” [1].
Ciò comporta un ripensamento dell’autonomia deliberativa e decisionale del medico, che senza venir meno alla propria responsabilità deve utilizzare nel miglior modo possibile le risorse fornite dal sistema computazionale [2].
È noto come in ambito unionale con la Risoluzione del Parlamento europeo recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica” del 16 febbraio 2017 [3] la Commissione veniva invitata all’elaborazione di una proposta di direttiva idonea a regolare l’uso di robotica intelligente anche nel settore sanitario, trovando conferma il c.d. “human in command approach”, secondo cui in tale ambito era necessario che “la programmazione iniziale di cura e la scelta finale sull’esecuzione spettino sempre ad un chirurgo umano” [4].
Sul tema è intervenuto lo stesso Parlamento europeo con la Risoluzione del 20 ottobre 2020 recante “Raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale” [5], nella quale si afferma la necessità di “un quadro giuridico orizzontale e armonizzato, basato su principi comuni, per garantire la certezza giuridica, fissare norme uniformi in tutta l’Unione e tutelare efficacemente i valori europei e i diritti dei cittadini”; oltre all’adozione regolamentare di norme comuni sulla responsabilità per gli operatori dell’A.I., tenendo conto dell’autonomia, dell’opacità e della capacità di modifica dei sistemi “intelligenti”.
Nella stessa Risoluzione si propone, seguendo le indicazioni del Libro Bianco in materia di Intelligenza Artificiale licenziato dalla Commissione nel febbraio 2020, di differenziare le nuove norme europee in materia di responsabilità da A.I. a seconda del livello e delle tipologie di rischio derivanti dall’utilizzo dei suddetti sistemi, ritenendosi idoneo un regime comune di responsabilità oggettiva nei soli sistemi di A.I. autonomi ritenuti ad alto rischio [6], la cui determinazione si collega ai relativi settori di applicazione, tra cui quello sanitario, sebbene non oggetto di espressa menzione dal Parlamento, ma ora richiamato nella bozza del regolamento sull’approccio europeo per l’intelligenza artificiale, presentata dalla Commissione il 21 aprile 2021 [7], che all’art. 5 prevede tra le pratiche scorrette e illegali anche gli strumenti che possono sfruttare in qualche modo la vulnerabilità di un determinato gruppo di persone.
Senza trascurare poi la peculiare considerazione riservata all’A.I. dal Reg. (UE) 2017/745, in tema di dispositivi medici, ora modificato dal Reg. (UE) 2020/561, che disciplina l’utilizzazione del software quale dispositivo medico o quale parte di un device medicale (c.d. sistemi elettronici programmabili), già definito dalla precedente dir. 93/42/CEE quale strumento o apparato impiegato a fini di diagnosi, prevenzione, monitoraggio o cura di malattie.
In questo contesto (ove si inserisce anche il testo della proposta per il nuovo Regolamento macchine del 21 aprile 2021 [8], applicabile anche ai sistemi che utilizzano tecnologie di IA) sembra allora necessario tenere conto dell’autonomia del programma dotato di A.I., cioè della sua capacità di prendere decisioni e realizzarle, a prescindere da un controllo esterno; per poi argomentare sulla possibilità di deresponsabilizzare l’essere umano o piuttosto ipotizzare una diretta responsabilizzazione, per il danno cagionato dalla macchina “intelligente”, dell’autore dell’algoritmo di autoapprendimento, potendo assimilarsi lo stesso algoritmo alla componente di un prodotto, secondo lo schema già collaudato della responsabilità in tema di product liability [9].
Nello specifico settore medico (si pensi alle protesi e agli esoscheletri “intelligenti” collegati come innesti corporei animabili “con il pensiero”; alle chatbot capaci di simulare conversazioni intelligenti con i pazienti per la cura degli stati depressivi) trovano spazio, sul versante interno, le responsabilità contrattuali e aquiliane della struttura sanitaria [10] (si veda per la custodia dei macchinari intelligenti l’applicabilità del regime di responsabilità configurato dall’art. 2051 cod. civ. [11]); mentre, come è stato già opportunamente rilevato, l’espresso richiamo dell’art. 7 della l. n. 24/2017 soltanto all’art. 2043 cod. civ., in tema di responsabilità imputabile al singolo esercente la professione sanitaria strutturato, sembrerebbe escludere l’estensione a questi della responsabilità da custodia [12]. Sempre ai fini dell’individuazione del regime di responsabilità della struttura sanitaria ulteriore questione problematica appare quella relativa alla inclusione nel novero delle attività pericolose ai sensi dell’art. 2050 cod. civ. di talune peculiari attività, in ragione dell’applicazione di forme di A.I. ad alcuni settori dell’attività medica.
Date queste premesse sulla responsabilità da A.I. in ambito sanitario, in prospettiva unionale [13] ed interna [14], che non può prescindere da una analisi che tenga conto delle peculiarità dei robot, delle particolari funzioni e utilizzazioni, della diversificazione delle attività, non è il caso di soffermarsi in questa sede sulle note ricostruzioni teubneriane sullo status degli agenti software autonomi [15]. Si impone invece una considerazione più generale, a seguito della progressiva tecnologizzazione dell’uomo, sulla inviolabilità del corpo umano, sulle pratiche di potenziamento [16], di human enhancement secondo le istanze transumaniste nella duplice tipologia degli interventi “curativi” e “migliorativi” [17], sulla liceità di forme di stravolgimento corporeo conseguenti ad addizioni notevolmente invasive, e di prolungamento della vita o della coscienza anche dopo la morte del corpo nel solco dell’immortalità digitale [18].
Al di là delle pratiche di digitalizzazione della mente e della creazione in laboratorio di cervelli biologici autonomi, prospettiva che supera le stesse figure del cyborg-man o del cyborg-robot, appare ineludibile una riflessione sul mantenimento della condizione umana a fronte di una trasformazione identitaria frutto di uno snaturamento potenziativo-accrescitivo [19], dovendosi negare il diritto ad apportare al proprio corpo alterazioni tali da incidere sul patrimonio genetico e divenire in tal modo trasmissibili ereditariamente [20]; basti pensare agli algoritmi che “anticipano la parola” e “fotografano il pensiero”, con i conseguenti rischi di modificazione del pensiero stesso, e soprattutto alle pratiche di neuropotenziamento cerebrale ai fini del miglioramento delle abilità fisiche e cognitive [21]. È in gioco la nota dialettica tra il diritto alla vita e alla salute e quello all’autodeterminazione e il difficile bilanciamento tra i due valori.
Tenuto poi conto della opacità e della mancanza di trasparenza di talune applicazioni dell’intelligenza artificiale in ambito sanitario, si pone l’ulteriore questione di quale tipologia di consenso possa davvero ritenersi informato per il paziente e attraverso la prospettazione di quali rischi [22], considerato che nel parere del Comitato Nazionale per la bioetica del 29 maggio 2020 si legge: “Ma l’informativa è tutt’altro che facile da dare e l’autonomia/consenso si complica con l’IA che suscita un senso di disorientamento in considerazione della velocità con cui le tecnologie stanno stravolgendo il mondo conosciuto”, con conseguente dovere in capo al medico di “mediare questa comunicazione”, a fronte del rischio che le complessità derivate dall’impiego di strumenti tecnologici di nuova generazione rendano il consenso ai nuovi trattamenti sanitari “forse dato più sulla fiducia verso il medico che non sulla effettiva comprensione”. Viene in rilievo dunque il “diritto alla spiegazione” del paziente, nel senso della reale comprensione della natura della decisione medica, del livello di automatizzazione, dei dati che ne orientano il contenuto.
A ciò si aggiunga quale ulteriore problema connesso all’applicazione dell’A.I. in ambito medico, nell’ottica sempre della tutela del paziente quale soggetto debole, quello della appartenenza e della disponibilità esclusiva dei dati da parte del paziente, potendo un accesso indiscriminato agli stessi, oltre a non risultare compatibile con la normativa in tema di protezione dei dati personali, non tenere conto della necessità di subordinarne lo stesso accesso al consenso esplicito dell’interessato ad un loro trattamento anonimizzato a fini scientifici [23].
Fermo restando quanto detto non può disconoscersi tuttavia che nella fase di contrasto alla pandemia da Covid-19 [24] la tutela della salute individuale e collettiva dei cittadini sia stata garantita anche dall’applicazione dell’AI a supporto e ad integrazione delle decisioni e delle attività umane, avendo assicurato questa l’efficacia delle prestazioni sanitarie necessarie; come del resto le tecnologie intelligenti sono applicate nei più svariati ambiti della assistenza sanitaria, dal monitoraggio della salute pubblica alla cura del singolo paziente, dall’assistenza diagnostica per il professionista all’assistente virtuale a servizio del malato, dalla rieducazione e riabilitazione all’assistenza domiciliare per anziani e disabili [25]. La robotica medica, ad esempio, contribuisce a trovare soluzioni mediche per condizioni rare, mediante i Big Data sanitari [26], e in ambito chirurgico accresce la capacità di lavorare con sempre maggiore precisione [27]. Resta sullo sfondo ciò nonostante il rischio di un’incontrollata digitalizzazione dei servizi sanitari e della conseguente esclusione di alcuni soggetti dai reali benefici di queste tecnologie, alimentandosi pericolose forme di technological divide a danno proprio dei più vulnerabili e una sostanziale disumanizzazione del rapporto terapeutico [28]. In tal senso, oltre al rischio di un eccessivo affidamento da parte dei medici nelle capacità dell’automazione con progressiva riduzione del livello di competenza richiesto per lo svolgimento di determinate funzioni di fronte a una diffusa digitalizzazione [29], l’appiattimento decisionale del curante può determinare una contrazione del tempo della comunicazione, che è tempo di cura in base all’art. 1, comma 8, della l. 219/2017 sulle DAT, a detrimento di una significativa relazione con il paziente [30].
Corre l’obbligo di segnalare poi come la nozione di fragilità appaia di non facile definizione, manifestando l’impossibilità di essere racchiusa in un catalogo esaustivo o in definizioni assolutistiche e non potendosi peraltro declinare solo al singolare [31]; essa evidenzia di continuo nuove sfaccettature che rivelano la difficoltà di configurarla in termini sistematicamente ordinati, considerato che il diritto privato non appare ormai da tempo più definibile quale terreno di regolazione dei rapporti tra eguali, dovendo tenere conto piuttosto dell’esistenza nella pienezza di tutte le sue dimensioni, senza l’assunzione a unità di misura di modelli universali o indistinti. La dichiarata complessità della fragilità richiede la predisposizione di statuti complessi, attenti alle specificità di volta in volta da considerare, alle diverse condizioni dell’esistenza e alla individuazione dei bisogni affettivi, relazionali, lavorativi, terapeutici.
In tal guisa appare opportuno che la piena tutela della persona nelle sue svariate declinazioni e specie con riguardo a situazioni di debolezza si saldi strettamente alla dignità, quale baluardo ultimo e irrinunciabile della irriducibile unicità di ogni uomo e del corpo come fattore di identificazione e differenziazione dagli altri [32]; contrastanti con la stessa dignità risultano, come già visto, allora interventi volti a ridurre la variabilità umana, a uniformare la specie, anche se nel senso del potenziamento della sua struttura biologica.
La Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate [33], richiamando l’IA antropocentrica [34], ribadisce la necessità, per qualsiasi nuovo quadro normativo in materia, del rispetto della dignità umana, dell’autonomia e dell’autodeterminazione dell’individuo, della spiegabilità delle tecnologie; della promozione dell’equità e della trasparenza, attraverso la garanzia che le tecnologie siano al servizio delle persone e non siano intese a sostituirle o a decidere per loro. La Risoluzione osserva inoltre che, al fine di rispettare la dignità, l’autonomia e la sicurezza umana, occorre prestare la dovuta attenzione ai dispositivi medici salvavita e avanzati; mette in risalto la necessità di evitare qualsiasi impiego delle tecnologie di IA che potrebbe comportare un’inammissibile coercizione diretta o indiretta, minacciare di compromettere l’autonomia psicologica e la salute mentale o portare a una sorveglianza ingiustificata, a inganni o a inammissibili manipolazioni.
Rimane allora valido l’insegnamento di un illustre Maestro della Scuola civilistica messinese che asseriva che in nessun caso il principio di dignità potesse venire relegato a una funzione solo residuale di sostegno per casi limite, “costituendo invece il necessario presidio normativo di effettiva messa in sicurezza del principio personalista in ogni procedimento ermeneutico inteso a definire nel loro essere e nel loro divenire storico senso e portata di regole e principi preposti a tutela dello stesso” [35]. Per la costruzione di un diritto a misura dei bisogni dell’essere umano nell’ottica del perseguimento di un più alto grado di umanizzazione degli istituti giuridici [36].
[1] Sul tema dell’intelligenza artificiale applicata al settore sanitario cfr. U. Ruffolo, L’intelligenza artificiale in sanità: dispositivi medici, responsabilità e “potenziamento”, in Giur. it., 2021, 502 ss.; C. Perlingieri, Diritto privato delle nuove tecnologie: contenuti e competenze, in Tecnologie e diritto, 2021, 82 ss.; ID., Responsabilità civile e robotica medica, in Tecnologie e diritto, 2020, 161 ss.; V. Di Gregorio, Robotica e intelligenza artificiale: profili di r.c. in campo sanitario, in Responsabilità medica. Diritto e pratica clinica, 2019, 4, 433 ss.; F. Cerea, Intelligenza artificiale a servizio dei pazienti per il contrasto a Covid-19, in Nuova giur. civ. comm., 2020, 3, 45 ss.; V. De Berardinis, L’impiego delle nuove tecnologie in medicina, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020, 489 ss.; M. Fasan, La tecnologia ci salverà? Intelligenza artificiale, salute individuale e salute collettiva ai tempi del Coronavirus, in BioLaw Journal, 2020, 1, 677 ss.; E.A. Ferioli, L’intelligenza artificiale nei servizi sociali e sanitari: una nuova sfida al ruolo delle istituzioni pubbliche nel welfare italiano, in BioLaw Journal, 2019, 1, 163 ss.; N.F. Frattari, Robotica e responsabilità da algoritmo. Il processo di produzione dell’intelligenza artificiale, in Contr. e impr., 2020, 458 ss.; E. Giusti, Intelligenza artificiale e sistema sanitario, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020, 309 ss.; S. Scalzini, Alcune questioni a proposito di algoritmi, dati, etica e ricerca, in Riv. it. med. leg., 2019, 1, 169 ss.; E. Stradella, Forum Artificial Intelligence and Law. La medicina, in BioLaw Journal, 2020, 1, 508 ss.; F. Vimercati, L’intelligenza artificiale in sanità, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Rapporti civilistici e intelligenze artificiali: attività e responsabilità, Napoli, 2020, 211 ss.
[2] C. Perlingieri, Diritto privato delle nuove tecnologie: contenuti e competenze, cit., 83, osserva come “l’utilizzazione della robotica introduce sulla scena del rapporto medico-paziente ulteriori attori sollecitandone la riformulazione in termini nuovi e alterando anche l’individuazione dei responsabili: il produttore del robot, il creatore-programmatore che ha formulato gli algoritmi, l’operatore che ha selezionato e fornito i dati sottoposti al robot, l’addestratore delle macchine intelligenti, ecc.”.
[3] Parlamento europeo, Risoluzione 16 febbraio 2017, n. 2015/2103 (INL).
[4] Sul punto A. Amidei, Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo, in U. Ruffolo (a cura di), Intelligenza Artificiale e responsabilità, Milano, 2017, 63 ss.
[5] Parlamento europeo, Risoluzione 20 ottobre 2020, n. 2020/2014 (INL).
[6] Nel citato Libro Bianco della Commissione diretto a contribuire alla definizione di un “approccio europeo” all’A.I., per le applicazioni della stessa giudicate ad alto rischio già si prospettava peraltro l’introduzione di obblighi informativi e di trasparenza degli algoritmi, nell’ottica di garantire la possibilità di un concreto intervento dell’uomo nella valutazione del comportamento del sistema autonomo.
[7] Commissione europea, Proposal for a Regulation of the european Parliament and of the Council. Laying down harmonized rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts, 21 aprile 2021, COM (2021) 206 final.
Cfr. A. Amidei, La proposta di Regolamento UE per un Artificial Intelligence Act: prime riflessioni sulle ricadute in tema di responsabilità da Intelligenza Artificiale, in Tecnologie e diritto, 2022, 1 ss.; A. SORO, Il Draft di regolamento europeo sull’intelligenza artificiale, in www.giustiziainsieme.it, 6 maggio 2021.
[8] La Commissione ha elaborato una proposta di Regolamento sulla produzione delle macchine [Proposal of a Regulation of the European Parliament and of the Council on machinery product, COM (2021) 0105 COD] in cui si introducono nuove regole che modificano ed integrano la direttiva macchine [2006/42/CE del Parlamento europeo e del Consiglio del 17 maggio 2006).
In tal senso appare significativo quanto prevede il considerando n. 23, che così recita: “Al fine di garantire che i prodotti macchina, quando sono immessi sul mercato o messi in servizio, non comportino rischi per la salute e la sicurezza delle persone o degli animali domestici e non causino danni a beni, e se del caso, all’ambiente, occorre definire i requisiti essenziali di sicurezza e di tutela della salute che devono essere soddisfatti affinché i prodotti macchina siano autorizzati sul mercato. I prodotti macchina devono essere conformi ai requisiti essenziali di sicurezza e di tutela della salute quando vengono immessi sul mercato o messi in servizio. Qualora tali prodotti macchina vengano successivamente modificati, da mezzi fisici o digitali, in un modo non previsto dal fabbricante e che potrebbe implicare il fatto che essi non rispettino più i requisiti essenziali di sicurezza e di tutela della salute pertinenti, la modifica dovrebbe essere considerata sostanziale. Gli utilizzatori possono caricare ad esempio su un prodotto macchina un software non previsto dal fabbricante e che può generare nuovi rischi. Al fine di garantire il rispetto da parte di tali prodotti macchina dei requisiti essenziali di sicurezza e di tutela della salute pertinenti, la persona che effettua la modifica sostanziale dovrebbe essere tenuta a svolgere una nuova valutazione della conformità prima che il prodotto macchina modificato possa essere immesso sul mercato o messo in servizio. Tale requisito dovrebbe applicarsi soltanto rispetto alla parte modificata del prodotto macchina, a condizione che la modifica non incida sul prodotto macchina nel suo complesso. Al fine di evitare un onere inutile e sproporzionato, la persona che effettua la modifica sostanziale non dovrebbe essere tenuta a ripetere le prove e a produrre nuova documentazione in relazione ad aspetti del prodotto macchina sui quali la modifica non incide. Dovrebbe spettare alla persona che effettua la modifica sostanziale dimostrare che tale modifica non incide sul prodotto macchina nel suo complesso”.
[9] Sul tema cfr. A. Amidei, Intelligenza artificiale e responsabilità da prodotto, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020, 125 ss.; U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione Europea, in Riv. dir. civ., 2020, 1246 ss.; G. Finocchiaro, Intelligenza artificiale e responsabilità, in Contr. impr., 2020, 713 ss.; A. FUSARO, Quale modello di responsabilità per la robotica avanzata? Riflessioni a margine del percorso europeo, in Nuova giur. civ. comm., 2020, 1344 ss.; M. Costanza, L’intelligenza artificiale e gli stilemi della responsabilità civile, in Giur. it., 2019, 1686 ss.; U. Ruffolo, Le responsabilità da artificial intelligence, algoritmo e smart product: per i fondamenti di un diritto dell’intelligenza artificiale self-learning, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020, 93 ss.; ID., Intelligenza artificiale, machine learning e responsabilità da algoritmo, in Giur. it., 2019, 1689 ss.; G. Capilli, Responsabilità e robot, in Nuova giur. civ. comm., 2019, II, 621 ss.; L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Pol. dir., 2018, 713 ss.; E. Palmerini, Robotica e diritto: suggestioni, intersezioni, sviluppi a margine di una ricerca europea, in Resp. civ. prev., 2016, 1816 ss.
[10] Su tali temi cfr. U. Ruffolo, Artificial Intelligence e nuove responsabilità nel settore medico e farmaceutico, in U. Ruffolo (a cura di), La nuova responsabilità medica, Milano, 2018, 237 ss.; A. D’Adda, Danni «da robot» (specie in ambito sanitario) e pluralità di responsabili tra sistema della responsabilità civile ed iniziative di diritto europeo, in Riv. dir. civ., 2022, 805 ss.; C. Perlingieri, Responsabilità civile e robotica medica, cit., 167 ss.; ID., Diritto privato delle nuove tecnologie: contenuti e competenze, cit., 83 ss.; M. Savini Nicci, G. Vetrugno, Intelligenza artificiale e responsabilità nel settore sanitario, in U. RUFFOLO (a cura di), Intelligenza artificiale. Il diritto, cit., 601 ss. Per un quadro delle questioni legate all’uso dell’intelligenza artificiale in campo medico, con particolare riguardo all’esperienza inglese, cfr. D. Schönberger, Artificial intelligence in healthcare: a critical analisys of the legal and ethical implications, in 27International Journal of law and information technology, 2019, 171 ss.
[11] C. Perlingieri, Diritto privato delle nuove tecnologie: contenuti e competenze, cit., 83, manifesta perplessità “non condividendo l’estensione delle norme di cui agli artt. 2050 e 2051 alla robotica medica e al contrario valorizzando il ruolo della disciplina europea sulla responsabilità da prodotto anche per i beni di self-learning rispetto alla quale occorre chiedersi quando tali beni possano dirsi difettosi ai sensi dell’art. 117 c. cons.; quale onere probatorio il danneggiato debba sostenere ex art. 120 c. cons.; e soprattutto in che termini vada riletto l’art. 118, lett. b) e f), dunque la portata dell’esonero da responsabilità del produttore per rischio da sviluppo al fine di impedire un uso abusivo della norma”.
[12] U. Ruffolo, L’intelligenza artificiale in sanità, cit., 507.
[13] Per un quadro generale cfr. A. Amidei, La governance dell’Intelligenza Artificiale: profili e prospettive di diritto dell’Unione Europea, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, cit., 571 ss.; F. Rodi, Gli interventi dell’Unione europea in materia di intelligenza artificiale e robotica: problemi e prospettive, in Diritto e intelligenza artificiale, a cura di G. Alpa, Pisa, 2020, 187 ss.
[14] G. Di Rosa, I robot medici, in Persona e mercato, 2022, 14, osserva come la sempre più frequente diffusione dei sistemi di robotica medica nella quotidiana prestazione di servizi nelle strutture sanitarie pone “gli ordinari (ma allo stesso tempo nuovi) problemi in ordine ai connessi profili di responsabilità (ossia rispetto ai danni al paziente), sia retrospettiva (per quanto cioè già accaduto) sia prospettiva (per quanto cioè può nel futuro accadere)”.
[15] G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, a cura di P. Femia, Napoli, 2019; ID., Ibridi ed attanti. Attori collettivi ed enti non umani nella società e nel diritto, Milano, 2015; ID., Personalità giuridica digitale? Sullo status privatistico degli agenti software autonomi, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Il trattamento algoritmico dei dati tra etica, diritto ed economia, Napoli, 2020, 99 ss.
[16] Sul tema cfr. U. Ruffolo, A. Amidei, Intelligenza artificiale e diritti della persona: le frontiere del “transumanesimo”, in Giur. it., 2019, 1658 ss.; P. Perlingieri, Note sul «potenziamento cognitivo», in Tecnologie e diritto, 2021, 209 ss.
[17] Cfr. U. Ruffolo, A. Amidei, Intelligenza artificiale, human enhancement e diritti della persona, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, cit., 179 ss. Sulle tematiche generali relative al transumanesimo cfr. A. Besnier, Do Robots make love? From AI to immortality – Understanding transhumanism in 12 questions, Londra, 2018; N. Bostrom, Superintelligenza – Tendenze, pericoli, strategie, Torino, 2018; P. Dumouche, L. Damiano, Vivere con i robot– Saggio sull’empatia artificiale, Milano, 2019; Y.N. Harari, Homo Deus – Breve storia del futuro, Milano, 2017; A. Husain, The sentient machine – The coming age of artificial intelligence, New York, 2017; T.W. Malone, Superminds – The surprising power of people and computers thinking together, Londra, 2018; M. Tegmark, Vita 3.0 – Esseri umani nell’era dell’intelligenza artificiale, Milano, 2018.
[18] Sul punto U. Ruffolo, A. Amidei, Intelligenza artificiale, human enhancement, cit., 208-209; ID., Intelligenza artificiale e diritti della persona, cit., 1669-1670.
[19] Cfr. L. Palazzani, Il potenziamento umano. Tecnoscienza, etica e diritto, Torino, 2015; S. Rodotà, Of machines and men: the road to identity. Scene for a discussion, in M. Hildebrandt, A. Rouvroy (a cura di), Law, human agency and autonomic computing. The philosophy of law meets the philosophy of technology, Oxford – New York, 2011, 180. V. anche A. Santosuosso, A proposito della coevoluzione di umani e macchine intelligenti: note preliminari, in Giur. it., 2021, 1517 ss.
[20] U. Ruffolo, A. Amidei, Intelligenza artificiale e diritti della persona, cit., 1665; A. ALPINI, Identità, creatività e condizione umana nell’era digitale, in Tecnologie e diritto, 2020, 9.
[21] U. Ruffolo, L’intelligenza artificiale in sanità, cit., 508.
[22] Sul tema del consenso informato cfr. ex multis A. Amidei, Consenso informato e risarcimento del danno per omessa informazione, in Giur. it., 2021, 495 ss.; C. De Menech, Intelligenza artificiale e autodeterminazione in materia sanitaria, in BioLaw Journal, 2022, 181 ss.; L. D’avack, Consenso informato e scelte di fine vita – Riflessioni etiche e giuridiche, Torino, 2020; C. Castronovo, Autodeterminazione e diritto privato, in Eur. dir. priv., 2000, 1037 ss.; P. Zatti, Consistenza e fragilità dello ius quo utimur in materia di cura, in Nuova giur. civ. comm., 2015, 2020 ss.; E. Lucchini Guastalla, Informazione e consenso, in G. Iudica (a cura di), La tutela della persona nella nuova responsabilità sanitaria, Milano, 2019, 255 ss.; U. Salanitro, Il consenso attuale e anticipato nel prisma della responsabilità medica, in Nuove leggi civ. comm., 2019, 124 ss.; M. N. Bugetti, La disciplina del consenso informato nella legge 219/2017, in Riv. dir. civ., 2019, 106 ss.; I. Rapisarda, Consenso informato e autodeterminazione terapeutica, in Nuove leggi civ. comm., 2019, 43 ss.; S. Rossi, Consenso informato, in Dig. disc. priv. sez. civ., Aggiornamento, VII, Torino, 2012, 177 ss.; G. Ferrando, Diritto alla salute e autodeterminazione tra diritto europeo e Costituzione, in Persona e diritto, a cura di R. Alessi, S. Mazzamuto, S. Mazzarese, Milano, 2013, 29 ss.; V. Calderai, Consenso informato, in Enc. dir., Annali, VIII, Milano, 2015, 225 ss.
[23] Cfr. M. Ciancimino, Protezione e controllo dei dati in ambito sanitario e Intelligenza artificiale, Napoli, 2020, 108 ss.; G. Finocchiaro, Intelligenza Artificiale e protezione dei dati personali, in Giur. it., 2019, 1670 ss.
[24] Cfr. A. D’addA, Pandemia e modelli «dogmatici» di responsabilità sanitaria, in Riv. dir. civ., 2021, 451 ss.
[25] Cfr. N. Musacchio et al., Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità, criticità, in The Journal of AMD, 2018, 204 ss.
Con riferimento alla robotica assistenziale può richiamarsi il robot umanoide Pepper, che è in grado di muoversi nell’ambiente circostante, riconoscere visi umani e percepire attraverso appositi sensori le emozioni delle persone con cui interagisce.
[26] Cfr. A. Da RE, Big data e aspetti bioetici, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Il trattamento algoritmico dei dati, cit., 23 ss.; A.C. Di Landro, Big Data. Rischi e tutele nel trattamento dei dati personali, Napoli, 2020.
[27] G. Di Rosa, I robot medici, cit., 16, rileva l’evidente differenza intercorrente tra un’attività automatizzata diretta “alla acquisizione e conservazione di dati sanitari e quella rivolta al successivo utilizzo degli stessi con funzioni decisionali terapeutiche, in un percorso che dunque si snoda pur sempre (ma certo con indubbie diversità) attraverso sistemi robotici”.
[28] G. Di Rosa, I robot medici, cit., 19, evidenzia in tal senso come da un lato l’irripetibile individualità del paziente e dall’altro la insostituibile presenza del medico “traducono le coordinate fondamentali di una relazione (che è, deve essere) pienamente di senso, profondamente intrisa di quei tratti che possono essere propri solo dell’essere umano, che, pur con tutti i suoi limiti, risulta ancora di assoluta insostituibilità in una dimensione che non sia meramente seriale e tecnicamente o (tecnologicamente) reiterativa (ben possibile, invece, a livello dell’automazione, pur con caratteri di assoluta autonomia)”. Con riferimento all’impatto dell’IA nella relazione medico-paziente lo stesso gruppo misto costituito dal Comitato Nazionale per la Bioetica e dal Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita rileva il ruolo servente dei sistemi di intelligenza artificiale, osservando in particolare che “la macchina non potrà sostituire l’umano in una relazione che si costruisce sull’incontro di ambiti complementari di autonomia, competenza e responsabilità. (…) Se la relazione di cura va configurata come relazione di fiducia, oltre che di cura (legge 219/2017), va preservato un ruolo sostanziale del medico umano in quanto unico a possedere le capacità di empatia e di vera comprensione, che non possono essere espresse dall’IA e che sole possono rendere reale un tale rapporto”; cfr. Parere Intelligenza artificiale e medicina: aspetti etici, 29.5.2020, 10, in www.bioetica.governo.it.
[29] A. Da Re, Big data e aspetti bioetici, cit., 27.
[30] Cfr. F. Cerea, Intelligenza artificiale a servizio dei pazienti per il contrasto a Covid-19, cit., 49. Sul ruolo essenziale del processo comunicativo nell’assicurazione della necessaria piena umanità della relazione terapeutica, dovendosi evitare posizioni di dominanza potestativa da parte del medico e di contestualizzata soggezione da parte del paziente, cfr. G. DI ROSA, I robot medici, cit., 18. Sulle dat ex multis cfr. R. Lenzi, Disposizioni anticipate di trattamento ed effettività del consenso, in Not., 2020, 136 ss.; G. Ferrando, Rapporto di cura e disposizioni anticipate nella recente legge, in Riv. crit. dir. priv., 2018, 47 ss.; M. Mantovani, Relazione di cura e disposizioni anticipate di trattamento, in Nuove leggi civ. comm., 2019, 188 ss.; E. Fazio, Consenso informato e disposizioni anticipate di trattamento: profili problematici, in Dir. succ. fam., 2019, 389 ss.; G. Baldini, L. n. 2019/2017 e Disposizioni anticipate di trattamento (DAT), in Fam. e dir., 2018, 803 ss.; S. Delle Monache, La nuova disciplina sul “testamento biologico” e sul consenso ai trattamenti medici, in Riv. dir. civ., 2018, 997 ss.; C. Verde, Profili civilistici delle direttive anticipate di trattamento, in Riv. succ. fam., 2018, 892 ss.; R. Calvo, La nuova legge sul consenso informato e sul c.d. biotestamento, in Studium iuris, 2018, 691 ss.; M. Foglia, Consenso e cura. La solidarietà nel rapporto terapeutico, Torino, 2018, 161 ss.; M. Piccinni, Biodiritto tra regole e principi. Uno sguardo critico sulla l. n. 219/2017 in dialogo con Stefano Rodotà, in Riv. biodiritto, 2018, 121 ss.; M. Azzalini, Legge n. 219/2017: la relazione medico-paziente irrompe nell’ordinamento positivo tra norme di principio, ambiguità lessicali, esigenze di tutela della persona, incertezze applicative, in Resp. civ. prev., 2018, 8 ss.; D. CARUSI, La legge “sul biotestamento”: una luce e molte ombre, in Corr. giur., 2018, 295 ss.; R. Clarizia, Autodeterminazione e dignità della persona: una legge sulle disposizioni anticipate di trattamento, in Scritti in onore di Furgiuele, I, Mantova, 2017, 557 ss.; P. Zatti, Spunti per una lettura della legge sul consenso informato e DAT, in Nuova giur. civ. comm., 2018, 247 ss.
[31] Cfr. D. Poletti, Soggetti deboli, in Enc. dir., Annali, VII, Milano, 2014, 962 ss.
[32] Sulla dignità ex multis V. Scalisi, L’ermeneutica della dignità, Milano, 2018, 3 ss.; C.M. Mazzoni, Dignità, in Riv. crit. dir. priv., 2016, 161 ss.; A. Ruggeri, Il principio personalista e le sue proiezioni, in www.federalismi.it, 2013, 10; G. Alpa, Dignità personale e diritti fondamentali, in Riv. trim. dir. proc. civ., 2011, 21 ss.; G. M. FLICK, Elogio della dignità, Città del Vaticano, 2015, 29 ss.; D. Neri, Sugli usi del concetto di dignità umana in bioetica e biodiritto, in BioLaw Journal, 2017, 84; N. Casaburi, Il cammino della dignità. Peripezie, fascino, manipolazioni di una parola, Roma, 2015, 21 ss.; G. Resta, Dignità, persona, mercati, Torino, 2014, 3 ss.; G. Silvestri, Sulla dignità umana come criterio di bilanciamento dei valori costituzionali, in Studi in onore di Pierfrancesco Grossi, Milano, 2012, 1181; P. Zatti, La dignità dell’uomo e l’esperienza dell’indegno, in Nuova giur. civ. comm., 2012, II, 377 ss.
[33] Parlamento europeo, Risoluzione 20 ottobre 2020, n. 2020/2012 (INL).
[34] Sul tema v. R. Clarizia, Mercato, persona e intelligenza artificiale: quale futuro?, in Juscivile, 2020, 714 ss.; S. Tommasi, L’intelligenza artificiale antropocentrica: limiti e opportunità, in Juscivile, 2020, 853 ss.
[35] Cfr. V. Scalisi, L’ermeneutica della dignità, cit., 105-106.
[36] V. Scalisi, L’ermeneutica della dignità, cit., 105.