Jus CivileCC BY-NC-SA Commercial Licence ISSN 2421-2563
G. Giappichelli Editore

Le decisioni nella relazione di cura e le conseguenze dell'intelligenza artificiale (di Simona Cacace, Ricercatrice di Diritto privato – Università degli Studi di Brescia)


L’introduzione dell’intelligenza artificiale nella pratica medica comporta una profonda trasformazione della relazione di cura e dei presupposti giuridici che la regolano. Il saggio analizza come l’impiego di sistemi algoritmici incida sul processo decisionale clinico, sollevando interrogativi cruciali in termini di responsabilità professionale, di consenso informato e rispetto dell’autodeterminazione del paziente. Alla luce dei quattro princìpi della bioetica e del quinto principio di spiegabilità, viene evidenziato il rischio di un nuovo paternalismo tecnologico, suscettibile di compromettere sia la trasparenza delle scelte sanitarie sia la fiducia che caratterizza la relazione terapeutica. Particolare attenzione è dedicata alla necessità di garantire che la tecnologia non sostituisca, bensì potenzi, il ruolo umano nella cura, salvaguardando la dimensione valoriale e soggettiva della decisione in àmbito sanitario.

Clinical decision-making and the impact of artificial intelligence on the care relationship

The integration of artificial intelligence into medical practice is profoundly reshaping the therapeutic relationship and its underlying legal principles. This paper examines how algorithmic systems affect clinical decision-making, raising critical issues regarding professional liability, informed consent, and the patient’s right to self-determination. In light of the four principles of bioethics and the fifth principle of explainability, the analysis highlights the risk of a new form of technological paternalism that threatens both the transparency of medical decisions and the trust that defines the care relationship. Special emphasis is placed on the need to ensure that technology does not replace, but rather enhances, the human role in care, preserving the value-based and personal dimension of clinical decision-making.

SOMMARIO:

1. I quattro princìpi della bioetica nella relazione di cura - 2. Intelligenza artificiale e autodeterminazione in àmbito sanitario: il quinto principio della spiegabilità - 3. Opacità, decisioni, discriminazioni - 4. Il controllo umano: trasparenza e comprensione - 5. La motivazione della decisione - NOTE


1. I quattro princìpi della bioetica nella relazione di cura

È trascorso più di un secolo da quando, con parole chiaroveggenti, Antonio Cicu osservava che «l’attività umana, spinta dal supremo principio economico del minimo mezzo, tende continuamente ad accrescere le proprie forze, assoggettando e sostituendo ad esse quelle incommensurabili della natura esteriore» [1]. In questa direzione, il ricorso all’«automa» è vòlto a «sostituire ed estendere l’attività umana», consentendo «l’esecuzione di una prestazione senza l’intervento diretto dell’opera del prestante». Tale proprietà presenterebbe poi un duplice vantaggio: da un lato, la possibilità di «eseguire una prestazione contemporaneamente in luoghi diversi, eliminando la necessità della presenza di altrettante persone che dovrebbero attendere a quell’ufficio»; dall’altro, il risultato di «una maggiore prontezza e semplicità nell’esecuzione della prestazione» medesima. Nella prospettiva negoziale in cui si poneva l’illustre Autore, scopo dell’automa era «eseguire prestazioni», suscettibili di «dar vita a rapporti giuridici», con il beneficio della quantità e della velocità.

In àmbito sanitario e cent’anni dopo, l’impiego dell’«automa», lungi dal determinare causalmente l’instaurarsi del rapporto giuridico, è però capace di condizionarlo profondamente. L’avvento e l’utilizzo dei sistemi di intelligenza artificiale, difatti, paiono in grado di operare un’autentica metamorfosi della relazione di cura e di fiducia intercorrente fra medico e paziente, con effetti che si manifestano sul piano giuridico, etico e deontologico [2].

Tradizionalmente, lo svolgersi di questa relazione è descritto a seconda del ruolo e del rilievo accordato ai due soggetti coinvolti, con riguardo, in particolare, all’adozione delle decisioni che attengono alla cura dell’ammalato e chiamano in causa la competenza professionale del medico.

Il dialogo e la composizione fra l’autodeterminazione del paziente e il patrimonio sapienziale del sanitario sono efficacemente illustrati con rimando ai quattro princìpi della bioetica [3].

Un approccio medico ‘paternalistico’ rinviene legittimazione, infatti, nell’applicazione dei noti princìpi di beneficenza e di non maleficenza, sulla scorta del perseguimento di un presunto e oggettivo migliore interesse del paziente, che induce il sanitario a operare scelte terapeutiche senza necessariamente interpellare il diretto interessato o persino in contraddizione con la volontà da quest’ultimo manifestata [4].

In questa accezione di cura eterodeterminata (ovvero determinata dal terapeuta), l’unico limite alla professionalità del medico è costituito dall’àmbito di operatività del principio di proporzionalità, nel quale è compendiata una valutazione in termini di appropriatezza del mezzo, da una parte, e di sua gravosità per il paziente, dall’altra. L’accanimento clinico, l’ostinazione irragionevole delle cure e la somministrazione di trattamenti che non soddisfano positivamente il rapporto fra rischi e benefici configurano, dunque, condotte non conformi a diligenza e prive del canone della scientificità [5].

Il pluralismo e il relativismo valoriali, cui consegue la possibilità che medico e paziente non condividano il medesimo orizzonte di riferimento, inducono tuttavia al superamento di tale modello paternalistico e al riconoscimento dell’autonomia dell’ammalato nel determinare le soluzioni terapeutiche che lo riguardano.

La tutela dell’autodeterminazione individuale in àmbito sanitario va di pari passo con l’evoluzione della nozione stessa di salute, la quale è concepita in senso sempre più olistico e soggettivamente declinato e sempre meno viene ricondotta a una monolitica sfera d’integrità psicofisica e di preservazione della mera vita biologica [6]. Prima ancora che nella relazione fra personale sanitario e ammalato, l’attenzione al profilo identitario, biografico ed esistenziale di quest’ultimo provoca dunque una vera e propria, intrinseca trasformazione della concezione di benessere e di cura [7].

Il principio di autonomia rinviene la sua prima motivazione nell’affermazione della libertà di compiere scelte che non arrechino pregiudizio ad altri e nella natura, perciò, esclusivamente privata di determinazioni riguardanti soltanto il diretto interessato; e rinviene la sua seconda ragione nella considerazione utilitaristica secondo la quale non esiste persona più interessata del paziente al benessere del paziente medesimo, nell’accezione soggettiva sopra enunciata [8].

Orbene, siffatta libertà conosce però due ordini di limitazioni a carattere estrinseco.

La prima attiene a ragioni sistemiche e si colloca agli estremi confini della relazione di cura e di fiducia, pur condizionandola profondamente: quando i mezzi a disposizione si rivelano scarsi, infatti, il quarto principio della bioetica impone di operare in conformità con un criterio di giustizia distributiva, che garantisca l’equa allocazione e ripartizione di tali risorse. L’operatività di questo principio, di norma destinata a restare per così dire sottotraccia, si è manifestata in tutta la sua drammaticità nel contesto dell’emergenza pandemica e nello «scenario da medicina delle catastrofi» che improvvisamente è stato necessario contrastare [9].

L’assenza di risorse infinite può, dunque, in via d’eccezione, condizionare e compromettere la libertà positiva del paziente di curarsi in maniera corrispondente alle proprie necessità cliniche e alle proprie personali valutazioni. Con questi presupposti, il limite assume natura straordinaria allorché la finitudine delle risorse a disposizione s’imponga a pregiudizio del paziente, impedendone la cura e per questo arrecandogli direttamente un danno.

La seconda limitazione a questa libertà positiva attiene invece più strettamente all’oggetto della prestazione ed è rappresentata dalla scienza stessa del medico, al quale l’ammalato non può chiedere una condotta contraria o non conforme alle leges artis. La pretesa del paziente, in altri termini, non esonera l’operatore sanitario dall’obbligo professionale di agire diligentemente; nondimeno, se il medico è un pubblico dipendente, la diligenza nell’adempimento di quest’obbligazione comprende altresì un’oculata gestione delle strutture e degli strumenti offerti dal Servizio Sanitario Nazionale [10].

Con ciò non vuol certo intendersi che a queste condizioni – a fronte di una richiesta inaccettabile – il medico possa trattare il proprio assistito senza o contro la sua volontà; piuttosto, l’impossibilità della relazione impone senz’altro al professionista di astenersi dall’operare, poiché una cura «opportuna» somministrata in violazione del principio del consenso informato configura un illecito tanto quanto un intervento sanitario realizzato in contraddizione con le «buone pratiche clinico assistenziali» e con i crismi della scienza medica [11].

Le restrizioni alla libertà negativa di non curarsi sono invece intrinseche e attengono all’assenza stessa delle condizioni preliminari all’operatività del principio di autonomia: innanzitutto, allorché la persona sia incapace di provvedere ai propri interessi, per una causa patologica oggettivamente accertabile o per motivi semplicemente anagrafici; in seconda battuta, quando si tratti di condotte omissive suscettibili di ripercuotersi sulla salute degli altri consociati o della collettività complessivamente intesa, con riferimento particolare alla mancata immunizzazione contro determinati antigeni.

In àmbito sanitario, dunque, la mera tutela della dignità e della sicurezza individuali non legittimano imposizioni eteronome e il dettato costituzionale prescrive il rispetto della libera ricerca del benessere individuale, anche ove il paziente si sottragga perciò a cure astrattamente opportune. In tal senso, da un’interpretazione costituzionalmente orientata dell’art. 5 cod. civ. scaturisce l’esigenza di riservare l’applicazione di questa norma ad àmbiti esterni alla relazione terapeutica e a fronte di un bilanciamento che esuli dal perseguimento di un ideale soggettivo di salute, bensì piuttosto attenga, per esempio, al soddisfacimento di finalità di natura economica [12].


2. Intelligenza artificiale e autodeterminazione in àmbito sanitario: il quinto principio della spiegabilità

È stato autorevolmente rilevato come l’impiego di sistemi di intelligenza artificiale nel campo delle scienze della vita e della cura della salute richieda l’introduzione di un quinto principio, in aggiunta a quelli già menzionati, ai fini dell’eticità dell’intervento dell’uomo sull’uomo [13].

In particolare, l’affermazione del principio di explicability intende contrastare l’opacità dell’intelli­genza artificiale e aspira perciò all’utilizzo esclusivo di sistemi trasparenti.

Peraltro, le due direttrici in cui tale criterio si articola – accountability e intelligibility –rispecchiano in maniera esemplare gli effetti prodotti da queste nuove tecnologie sulla relazione di cura e di fiducia, nonché sugli equilibri e sugli àmbiti di competenza che contraddistinguono detta relazione e che sono stati sopra tratteggiati [14].

È necessario evitare, allora, che dal paternalismo del medico si passi al ben deteriore paternalismo della macchina.

La difficoltà di prevedere ex ante e di comprendere ex post il funzionamento dell’algoritmo, lo svolgimento del processo decisionale a questo demandato e le motivazioni sottostanti alle indicazioni diagnostiche, prognostiche e terapeutiche offerte dal sistema intelligente pone, infatti, un problema innanzitutto di responsabilità professionale.

Il medico si trova nell’incapacità – per carenza di sue adeguate competenze tecniche [15], da un lato, e per la caratteristica mancanza di trasparenza dei sistemi di deep learning, dall’altro – di governare la tecnologia di riferimento, di impiegarla come mero strumento, di controllarne gli esiti e di integrarla con le sue specifiche conoscenze professionali, che scaturiscono dal suo patrimonio culturale e dalla sua esperienza pratica, acquisita nel tempo.

Se, dunque, un atteggiamento paternalistico da parte del medico è tradizionalmente motivato con la ritenuta inutilità del coinvolgimento del paziente, che nulla sa e poco comprende, in questa ipotesi la difficoltà di comprensione dell’ammalato è invece senz’altro preceduta dall’inettitudine del sanitario nel dominare lui stesso la complessità del sistema di cui si avvale. Da questa inidoneità consegue naturalmente l’impossi­bilità di spiegare appieno al diretto interessato i motivi e la natura delle differenti opzioni proposte e, perciò, di informarlo in maniera adeguata ai fini dell’acquisizione di un valido consenso al trattamento.

In primo luogo, quindi, l’opacità della macchina impedisce l’assunzione di responsabilità (accountability), da parte del medico, in ordine al suo funzionamento e al suo impiego [16].

La seconda declinazione del principio di spiegabilità dell’intelligenza artificiale attiene invece alla sua intelligibilità (intelligibility) come funzionale al rispetto del principio di autonomia dell’ammalato e alla conseguente adozione di decisioni consapevoli [17].

È bene però al riguardo intendersi.

Quando si esprimono preoccupazioni in ordine alle possibili conseguenze negative dell’utilizzo dell’intelligenza artificiale sull’esercizio del diritto del paziente di autodeterminarsi, non si vuole certo sostenere che quest’ultimo debba essere messo a conoscenza delle singole complessità tecniche dell’operato sanitario. Il paziente non dev’essere dunque destinatario di una informazione, da parte del medico, attinente all’impiego del sistema intelligente e alle modalità del suo funzionamento in sé e per sé considerati; né, tantomeno, dev’essere destinatario di un’informazione volta a raccogliere il suo consenso e la sua approvazione al riguardo [18].

Il ricorso a sistemi di intelligenza artificiale in àmbito sanitario è oggetto, infatti, di una scelta demandata al professionista in base alle sue competenze, secondo la ritenuta opportunità di utilizzare l’ultima tecnologia, la più avanzata ed efficace, per ottenere il risultato e la prestazione migliori, per minimizzare i rischi e ottimizzare le risorse [19].

Un’informazione rivolta in tal senso al paziente non è funzionale all’esercizio di un suo diritto alla decisione e risulta nella migliore delle ipotesi ridondante, se non incomprensibile o persino terroristica, così come potrebbe parimenti dirsi in ordine alla descrizione delle peculiarità tecniche del bisturi o del macchinario adoperato per l’emodialisi. I contenuti e l’ampiezza di una spiegazione di questo tipo sono tutt’al più demandati al giudizio del medico, che riguarda le modalità e la natura della comunicazione di cui il paziente del caso concreto debba essere eventualmente destinatario considerate le sue specifiche caratteristiche: ai fini, perciò, del corretto svolgimento della relazione fiduciaria e non certo per ottenere un’accettazione del rischio da parte dell’ammalato.

In questo senso, la spiegabilità continua a essere rivolta esclusivamente al medico, perché concorre all’assunzione di responsabilità che scaturisce dalla valutazione professionale di cui sopra.

L’art. 13 dell’AI Act richiede che i sistemi di Intelligenza Artificiale ad alto rischio siano progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e di utilizzarlo adeguatamente. L’art. 14 impone il controllo umano (human oversight) «to prevent or minimise the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse», così come il successivo art. 15 prescrive un livello di accuratezza, robustezza e sicurezza che parimenti è destinato ad avere come primo interlocutore il medico e, tramite il filtro della sua professionalità, solo indirettamente e successivamente il paziente beneficiario della valutazione sanitaria [20].


3. Opacità, decisioni, discriminazioni

L’opacità della macchina può riguardare, tuttavia, non soltanto l’assenza di trasparenza nell’interpretazione dei dati, ma anche la natura in ipotesi discriminatoria dei risultati così ottenuti [21]. Questa eventualità è naturalmente riconducibile a un errore umano in sede di programmazione, di selezione delle informazioni e di elaborazione degli algoritmi, con l’esito di una classificazione delle persone in gruppi o in sottogruppi che potrebbe non tenere conto delle caratteristiche specifiche di un determinato paziente. La natura di queste scelte in materia di inserimento dei dati di programmazione e il fatto che il sanitario possa o meno sondare, dominare, verificare le indicazioni e le decisioni della macchina sono entrambi elementi dai quali, in definitiva, direttamente dipendono la prestazione professionale del medico e la buona riuscita della stessa [22].

La diligenza dell’adempimento è dunque pregiudicata dal bias cognitivo che inficia il sistema intelligente, allorché sia programmato su un campione di dati non sufficientemente rappresentativo delle caratteristiche oggettive del singolo paziente destinatario della prestazione sanitaria considerata [23]. In questa ipotesi, la macchina si rivela inadatta a svolgere il còmpito per cui viene impiegata, per la minore attendibilità delle indicazioni formulate nei confronti dell’ammalato, a causa della sua riconducibilità a una categoria non adeguatamente presa in considerazione dall’algoritmo [24].

L’errore in sede di programmazione e l’opacità dei risultati prodotti e delle scelte così operate sono però suscettibili di nuocere anche alla capacità del paziente di decidere autonomamente, secondo il proprio portato valoriale e nella piena consapevolezza delle conseguenze delle preferenze manifestate [25]. Ciò accade quando il sistema non tenga in considerazione caratteristiche del paziente soggettive in grado di condizionare e di determinare la singola decisione terapeutica, che invece in ipotesi viene pretermessa dalle opzioni presentate come possibili e opportune, proprio perché l’algoritmo non ha contemplato quelle peculiarità individuali da cui scaturiscono direzioni per così dire eccentriche dell’autodeterminazione individuale [26].

In questa accezione, la spiegabilità è «abilitante», perché funzionale al corretto utilizzo del sistema da parte dell’utente, con ciò intendendosi sia il professionista sanitario, nei termini sopra enunciati, sia il paziente medesimo, in ordine ai condizionamenti cui la sua scelta può essere inconsapevolmente sottoposta.

Lungi dall’essere neutrale, la decisione algoritmica rischia dunque di risultare espressione di un assetto valoriale predominante, del ‘sentimento della maggior parte della gente’, che l’opacità della volontà macchinica veicola surrettiziamente prospettando una determinata soluzione, in ipotesi, come se fosse oggettiva, l’unica possibile in termini di efficacia e di opportunità, nonché scevra, soprattutto, da impostazioni etiche di sorta [27]. A queste condizioni, peraltro, neanche il sanitario dispone degli strumenti per avvedersi in maniera compiuta del pregiudizio che inficia il sistema di cui egli si avvale e che attiene a concezioni specifiche dell’esistenza e della cura, presumibilmente – ma neppure necessariamente – riconducibili alla maggioranza delle persone.

Contrariamente al paternalismo del medico, quello dell’intelligenza artificiale non è quindi sempre direttamente riferibile a un sapere codificato, il rispetto del quale sia ex post verificabile [28].

Le potenzialità in termini di soppressione della professionalità del personale sanitario si misurano con la capacità di sostituzione delle competenze umane da parte della macchina, con la difficoltà di controllare l’operato di quest’ultima e di integrarlo laddove necessario.

La diligenza del medico non è d’altronde l’unica a essere messa a repentaglio: lo stesso può dirsi – si è visto – per l’autonomia del paziente, il quale potrebbe esprimere un consenso al trattamento sanitario su presupposti del tutto fuorvianti, quale è una informazione falsata [29].

A ben vedere, è però la stessa e intera relazione di cura e di fiducia a rischiare un cambio di paradigma.

L’assenza di intelligibilità, per il paziente e parimenti per il medico, impone che la fiducia sia riposta nella macchina, siccome avviene con un essere umano, del quale, non essendo naturalmente possibile spiegarne, ricostruirne e controllarne ogni processo mentale, è necessario fidarsi in maniera apodittica, istintiva ed empatica.

Tuttavia, nel momento in cui il legislatore si esprime in termini di «fiducia» riguardo al rapporto di cura, questi presuppone una interazione consentita dal reciproco riconoscimento di se stessi nell’altro, grazie al quale e sulla base del quale è appunto costruita tale fiducia. La perdita di centralità dell’es­sere umano e la compromissione del momento comunicativo quale componente della cura medesima [30] ineludibilmente conducono alla neutralizzazione di questa relazione.


4. Il controllo umano: trasparenza e comprensione

Un impiego eticamente e giuridicamente informato dei sistemi automatizzati consegue il duplice risultato di potenziare la professionalità del medico e di promuovere l’autodeterminazione terapeutica del paziente.

Tuttavia, entrambi questi profili richiedono la previa consapevolezza che una decisione sanitaria non è adottata esclusivamente in relazione alle informazioni cliniche a disposizione e ai dati biometrici ricavati; che il miglior trattamento per un paziente potrebbe non essere il medesimo per un altro nelle stesse condizioni; che ciascuno, in definitiva, è malato a suo modo [31].

In particolare, per contrastare il rischio dell’eliminazione dell’autonomia decisionale della persona e del suo complesso valoriale, la tecnologia necessita di essere progettata in modo tale da poter tenere in considerazione la dimensione umana ed esistenziale del singolo paziente, con riferimento a ciò che quest’ultimo ritiene importante nella vita e per la sua vita. Si tratta, in altri termini, di una programmazione che non soltanto incorpora nella macchina il sapere scientifico e quello giuridico, ma che altresì arricchisce le proprie soluzioni grazie a un value and flexible design [32].

Un obiettivo di questo tenore può essere ottenuto soltanto a condizione della trasparenza di cui sopra, che permette il controllo del medico sulla macchina e, conseguentemente, un elevato grado di affidabilità dell’impianto tecnologico in termini di prestazioni e di risultati, ove tale affidabilità s’intende operare all’indirizzo del terapeuta così come dell’ammalato [33].

Dal valore etico della spiegabilità risulta peraltro condizionata la stessa operatività dei primi quattro princìpi: la possibilità di adottare decisioni in modo autonomo e responsabile, senza che venga arrecato nocumento al paziente e anzi perseguendo il suo migliore interesse; la capacità di valutare e sindacare queste decisioni secondo giustizia.

La trasparenza garantisce, dunque, la sicurezza del prodotto nella misura in cui consente di motivarne le ragioni e di verificarne gli scopi, così legittimandolo. In un ordinamento in cui la prestazione sanitaria e la cura del paziente non equivalgono più, secondo un facile automatismo, alla preservazione della mera vita biologica, è necessario innanzitutto che il sistema intelligente e il suo impiego siano improntati al rispetto di questi princìpi e a una tutela costituzionalmente orientata dei beni giuridici coinvolti [34].

In questo senso, la spiegabilità è, allora, anche «azionabile», poiché utile e strumentale ai fini della scelta dell’interessato di agire o meno a tutela dei propri diritti [35].

In un giudizio di responsabilità professionale, l’opacità del sistema intelligente è parimenti suscettibile di pregiudicare medico e paziente, in relazione alla necessità di assolvere all’onere probatorio, diversamente ripartito a seconda della natura contrattuale o meno del rapporto intercorso, e all’esigenza, dunque, di una parte o dell’altra d’individuare le cause di possibili malfunzionamenti o errori della macchina nei ragionamenti svolti e nelle scelte operate.

Purtuttavia, allorché il legislatore europeo ha tentato di adeguare alle peculiarità dell’intelligenza artificiale la disciplina della responsabilità extracontrattuale, rimediando a queste difficoltà di ricostruzione o di comprensione ex post con un sistema di presunzioni attinenti al nesso di causalità (tra la colpa del convenuto e l’output prodotto – o meno – da un sistema di IA) o riguardanti la stessa natura colposa della condotta pregiudizievole, ha sostanzialmente escluso dagli àmbiti di applicazione quelli sanitari di cui si è trattato sino ad ora [36]. Ciò sul presupposto, in particolare, che l’impiego di informazioni o di indicazioni fornite dal supporto tecnologico non interrompono il nesso eziologico fra l’azione o l’omissione umana e il danno subìto dal paziente [37].

Di conseguenza, poiché si ritiene persistere il dominio del professionista sullo strumento utilizzato, il contributo offerto dalla macchina nel momento diagnostico e nella selezione dell’opzione terapeutica non sarebbe suscettibile di sovvertire la disciplina di norma applicata, in via alternativa di natura contrattuale o extracontrattuale in relazione alle scelte del singolo ordinamento e alle specifiche caratteristiche del rapporto medico-paziente considerato [38]. L’onere probatorio è difatti assolto con riguardo alla valutazione e all’utilizzo dell’output ad opera del professionista, ovvero in ordine ad attività ritenute prevalenti e assorbenti rispetto al còmpito portato a termine dal sistema intelligente [39].

In questo senso, l’assunzione di responsabilità da parte dell’operatore sanitario esclude, in capo alla macchina, un’autonomia operativa giuridicamente rilevante, salvo che sia possibile dimostrare un errore di programmazione e di elaborazione dei dati tale da compromettere l’esito della prestazione senza che il professionista sia in grado di avvedersene usando l’ordinaria diligenza. Tale eventualità non parrebbe, peraltro, prospettabile a fronte di un sistema trasparente né i costi di un simile errore potrebbero comunque mai essere allocati sul danneggiato, piuttosto configurandosi una responsabilità contrattuale della struttura sanitaria per difetto o carenza organizzativa [40] e fatta salva la responsabilità dei soggetti cui sia imputabile per via diretta e originaria il malfunzionamento dell’algoritmo [41].


5. La motivazione della decisione

I medesimi princìpi sopra enucleati si rinvengono in alcune pronunce del giudice amministrativo [42].

Il tema della decisione algoritmica in àmbito concorsuale, per esempio, chiama in causa l’esigenza di trasparenza ai fini della conoscibilità della regola tecnica espressa in termini e con un linguaggio differenti da quelli giuridici, la quale dev’essere dunque necessariamente suscettibile di traduzione, al fine di poterne verificare la conformità alla norma (spiegabilità «attestativa» o «conformativa»). In particolare, la verificabilità dei criteri decisionali è funzionale alla sindacabilità della decisione stessa, in ordine alla sua logicità e legittimità: ciò non soltanto in una prospettiva a posteriori, ma altresì nel momento precedente, quando il risultato non è ancora prodotto e l’intervento umano opera per controllare, validare o confutare l’esito generato in via automatica, in una interazione-integrazione che consente l’assunzione di responsabilità più volte richiamata [43].

Nel caso della comunicazione fra medico e paziente, la questione naturalmente esula dall’esigenza di dominare i criteri dell’azione amministrativa, bensì attiene soprattutto alla conformità dell’output ai canoni dell’evidenza scientifica e ai desideri espressi dall’ammalato. La motivazione del risultato prodotto è importante ai fini dell’adozione stessa della decisione e non soltanto per giustificare all’esterno una determinazione già compiuta [44].

La consacrazione normativa della pianificazione condivisa delle cure (art. 5 della legge n. 219/2017) sancisce il definitivo abbandono di un modello di consenso informato perlopiù ‘puntiforme’, suscettibile di essere manifestato dal paziente in un tempo determinato e in ordine a uno specifico trattamento, sulla base di una informativa somministrata dal medico con modalità esaustive e compiute in un momento immediatamente precedente.

La progressività del consenso e lo svolgimento graduale dell’autodeterminazione individuale lungo tutto il percorso di cura, anche qualora per l’ammalato non si prospetti una futura incapacità decisionale, attiene a quelle condizioni patologiche degenerative o croniche per le quali il riferimento a una «relazione» che si attua nel tempo è tanto più vero e necessario, al fine di consentire la maturazione della volontà del paziente o delle persone che per lui o con lui devono decidere. Si tratta delle medesime situazioni in cui la capacità predittiva delle nuove tecnologie esprime al meglio le utilità e potenzialità che la contraddistinguono.

L’impiego di una macchina intelligente non può allora segnare una battuta d’arresto né tantomeno una regressione rispetto alla prescrizione, deontologica e normativa, di un percorso di comunicazione e di condivisione che in alcun modo si esaurisce con la mera recezione e acquisizione, da parte del medico e del suo paziente, di un’indicazione eterodeterminata, che pretenda di autolegittimarsi in virtù dello stesso sistema da cui proviene [45].

La spiegabilità della decisione umana è suscettibile essa stessa di essere messa in discussione, allorché si ritenga che a tal fine sia necessaria una vera e propria rappresentazione del processo decisionale ovvero un «fedele resoconto» di quest’ultimo [46]. Tutt’al contrario, la motivazione della decisione viene costruita nei termini di una giustificazione a posteriori, proprio e solo per dar conto di questa e in assenza di una reale consapevolezza in ordine alle modalità con cui essa è maturata: in questo senso, la trasparenza richiesta alla decisione della macchina è la medesima che connota quella dell’essere umano [47].

Se le decisioni sia dell’intelligenza umana sia di quella artificiale seguono, dunque, percorsi spesso insondabili, in entrambi i casi la loro spiegabilità risiede nella possibilità di mostrarne e di verificarne la conformità giuridica.

È stato osservato come la trasparenza debba diventare un way of thinking [48] e come le stesse modalità di programmazione delle macchine non possano esimersi dal garantire risposte in un linguaggio comprensibile all’umano e secondo canoni giuridicamente adeguati – quale non può essere una decisione senza giustificazione [49]. La natura necessariamente antropocentrica si sostanzia, dunque, nell’impossibilità di concepire una tecnologia svincolata dal suo creatore e interlocutore: come le indicazioni fornite devono risultare chiare, a pena di inutilità, così, allo stesso modo e nello stesso tempo, deve essere possibile addurne le ragioni, a pena di illegittimità.

Un sistema così ideato è in grado di motivare le sue scelte nel momento stesso in cui le compie, se adeguatamente interrogato. Nell’àmbito della relazione terapeutica, un utilizzo in questo senso del supporto decisionale è l’unico in grado di preservare autonomia individuale e responsabilità professionale.

Vi sono contesti in cui il rispetto della norma è suscettibile di limitare o di eliminare il novero delle decisioni personali: una tecnologia programmata secondo questa logica è persino in grado di incidere sulla libertà del singolo, al fine di eliminare la possibilità stessa della scelta (l’automobile che non si accende in presenza di un tasso alcolemico, nel guidatore, superiore a determinati limiti). Questo dilemma etico è però estraneo all’ampiezza dell’autodeterminazione in campo sanitario, ove l’unico «valore» destinato ad essere perseguito nelle decisioni self-regarding è la stessa autonomia individuale: l’ausilio nella scelta, allora, deve consentirne innanzitutto la libertà e la consapevolezza.


NOTE

[1] A. Cicu, Gli automi nel diritto privato, in Filangieri, 1901, 71.

[2] Secondo la definizione di cui all’art. 3 del Regolamento n. 2024/1689 del Parlamento europeo e del Consiglio Artificial Intelligence Act, 13 giugno 2024, pubblicato nella Gazzetta ufficiale dell’Unione europea il 12 luglio 2024: «‘AI system’ is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments». V. G. Proietti, Le definizioni di sistemi di intelligenza artificiale nelle proposte legislative europee. Un’analisi critica, in Dial. dir. econ., novembre 2023, 1; P. Traverso, Breve introduzione tecnica all’Intelligenza Artificiale, in C. Casonato-M. Fasan-S. Penasa (a cura di), Diritto e Intelligenza Artificiale, in DPCE online, 2022, 1, 155; M. Zanichelli, L’intelligenza artificiale e la persona: tra dilemmi etici e necessità di regolazione giuridica, in Teoria crit. reg. soc., 2021, 141. Cfr. altresì da ultima G. Finocchiaro, Intelligenza artificiale: quali regole?, Bologna, 2024, 22, per la quale, richiamando Turing, «l’intelligenza artificiale può essere definita la scienza di far fare al computer cose che richiedono intelligenza quando vengono fatte dagli esseri umani». Sulla distinzione tra «algoritmo» e «intelligenza artificiale» cfr. Cons. Stato, 25 novembre 2021, n. 7891, in MediaLaws, 2022, 296, con commento di S. Cereda, Il concetto di algoritmo in una recente sentenza del Consiglio di Stato; e in Giustizia Insieme, 8 febbraio 2023, con commento di C. Filicetti, Sulla definizione di algoritmo.

[3] Cfr. T.L. Beauchamp-J.F. Childress, Principles of biomedical ethics7, Oxford, 2013; H.T. Engelhardt Jr., The Foundations of Bioethics, New York, 1986. ­­Il richiamo al rispetto dei quattro princìpi della bioetica è già contenuto nel ‘Codice etico-deontologico degli ingegneri robotici’, di cui alla Risoluzione del Parlamento europeo del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica: v. S. Dadà, Principi comuni e valori condivisi nei codici etici e nelle linee guida sull’IA, in M. Anzalone-O. Tolone, Etiche applicate e nuovi soggetti morali, Napoli, 2024, 121; D. Imbruglia, L’intelligenza artificiale (IA) e le regole. Appunti, in Media Laws, 2020, 18; P. Femia, Introduzione. Soggetti responsabili. Algoritmi e diritto civile, in G. Teubner, Soggetti giuridici digitali. Sullo status privatistico degli agenti software autonomi, Napoli, 2019, 7; S. Oriti, Brevi note sulla risoluzione del parlamento europeo del 16 febbraio 2017 concernente le norme di diritto civile sulla robotica, in ratioiuris, 21 luglio 2017; N. Busto, La personalità elettronica dei robot: logiche di gestione del rischio tra trasparenza e fiducia, in Ciberspazio e dir., 2017, 499; G. Taddei Elmi-F. Romano, Il robot tra ius condendum e ius conditum, in Inf. dir., 2016, 115.

[4] Cfr. A. Vallini, Paternalismo medico, rigorismi penali, medicina difensiva: una sintesi problematica e un azzardo de iure condendo, in Riv. it. med. leg., 2013, 1; M. Siegler, The Progression of Medicine. From Physician Paternalism to Patient Autonomy to Bureaucratic Parsimony, in Arch. Int. Med., 1985, 145 (4), 713.­­­­­

[5] Sul principio di «limite» e di proporzionalità delle cure cfr. Comitato Etico della Società Italiana di Anestesia, Analgesia, Rianimazione e Terapia Intensiva, Considerazioni a margine della vicenda di Indi Gregory, 13 febbraio 2024, in www.siaarti.it. Al riguardo v. altresì Comitato Nazionale per la Bioetica, Accanimento clinico o ostinazione irragionevole dei trattamenti sui bambini piccoli con limitate aspettative di vita, mozione del 30 gennaio 2020, in bioetica.governo.it; Società Italiana di Cure Palliative, Informazione e consenso progressivo in cure palliative: un processo evolutivo condiviso, raccomandazioni del 28 ottobre 2015, in www.sicp.it. V. anche L. Craxì-G. Giaimo, Migliore interesse e proporzionalità delle cure negli infanti: un’analisi del caso di Indi Gregory tra diritto e bioetica, in Riv. Biodiritto, 2024, 1, 95; L. Palazzani, Limite terapeutico e accanimento clinico sui minori: profili bioetici e biogiuridici, in Arch. giur. Filippo Serafini, 2019, 789; Aa.Vv., Forum: il caso di Alfie Evans, in Riv. Biodiritto, 2018, 2, 5-76.

[6] Cfr. ex pluribus A. Santosuosso-M. Tomasi, Diritto, scienza, nuove tecnologie, Padova, 2021; M. Foglia, Consenso e cura. La solidarietà nel rapporto terapeutico, Torino, 2018; S. Cacace, Autodeterminazione in salute, Torino, 2017; G. Ferrando, Diritto alla salute e autodeterminazione tra diritto europeo e Costituzione, in Pol. dir., 2012, 3; Ead., Consenso informato del paziente e responsabilità del medico. Principi, problemi e linee di tendenza, in Riv. crit. dir. priv., 1998, 37; V. Calderai, Sui limiti della tutela giuridica dell’autodeterminazione in biomedicina, in Nuova giur. civ. comm., 2011, I, 901; Ead., Il problema del consenso nella bioetica, in Riv. dir. civ., 2005, 321; D. Carusi, L’ordine naturale delle cose, Torino, 2011; C. Castronovo, Autodeterminazione e diritto privato, in Eur. dir. priv., 2010, 1037; P. Zatti, Maschere del diritto. Volti della vita, Milano, 2009; C. Casonato, Introduzione al Biodiritto, Torino, 2009; L. D’Avack, Verso un antidestino. Biotecnologie e scelte di vita2, Torino, 2009; G. Cricenti, I diritti sul corpo, Napoli, 2008; P. Veronesi, Il corpo e la Costituzione. Concretezza dei casi e astrattezza della norma, Milano, 2007; S. Rodotà, La vita e le regole. Tra diritto e non diritto, Milano, 2006; F.D. Busnelli, Bioetica e diritto privato. Frammenti di un dizionario, Torino, 2001; E. Sgreccia, Manuale di bioetica. Fondamenti ed etica biomedica, I, Milano, 1999; E. Emanuel-L. Emanuel, Four Models of the Physician-patient Relationship, in JAMA, 1992, 267, 2221; R.R. Faden-T.L. Beauchamp, A History and Theory of Informed Consent, New York, 1986.

[7] Anche oltrepassando i limiti stessi dell’umano: cfr. E. Fazio, Intelligenza artificiale e diritti della persona, Napoli, 2023, 278; F. Di Lella, Intelligenza artificiale e atti di disposizione del proprio corpo, in A. Patroni Griffi (a cura di), Bioetica, diritti e intelligenza artificiale, Milano-Udine, 2023, 407 ss.; A. D’Aloia, I diritti della persona alla prova dello human enhancement, in U. Ruffolo (a cura di), XXVI lezioni di diritto dell’intelligenza artificiale, Torino, 2021, 85; P. Benanti, Postumano, troppo postumano, Roma, 2017; G. Quaranta (a cura di), Il doping della mente. Le sfide del potenziamento cognitivo farmacologico, Padova, 2014, 63 ss. In relazione alla salute quale condizione dinamica e relazionale della persona cfr. il Preambolo della Costituzione dell’Organizzazione Mondiale della Sanità (New York, 1946): «The States Parties to this Constitution declare, in conformity with the Charter of the United Nations, that the following principles are basic to the happiness, harmonious relations and security of all peoples: Health is a state of complete physical, mental and social well-being and not merely the absence of disease or infirmity (…)». A proposito di identità, dignità e salute cfr. F.D. Busnelli, “L’ermeneutica della dignità”. Relazioni, in Riv. dir. civ., 2020, 484; Id., Le alternanti sorti del principio di dignità della persona umana, ivi, 2019, 1071; Id., La persona alla ricerca dell’identità, in Riv. crit. dir. priv., 2010, 7; M. Tampieri, L’identità personale: il nostro documento esistenziale, in Eur. dir. priv., 2019, 1195; V. Scalisi, Ermeneutica della dignità, Milano, 2018; I. Rivera, La comparazione giuridica nel concetto di “salute”: possibili scenari evolutivi alla luce della giurisprudenza costituzionale e sovranazionale, in Riv. it. med. leg., 2017, 117; S. Rodotà, La rivoluzione della dignità, Napoli, 2013; P. Zatti, La dignità dell’uomo e l’esperienza dell’indegno, in Nuova giur. civ. comm., 2012, II, 377; A. Nicolussi, Lo sviluppo della persona umana come valore costituzionale e il cosiddetto biodiritto, in Europa dir. priv., 2009, 1; G. Rossollillo, L’identità personale tra diritto internazionale privato e diritti dell’uomo, in Riv. dir. intern., 2007, 1028.

[8] Liberalismo e utilitarismo vedono uno dei loro massimi esponenti in J.S. Mill, On Liberty, Londra, 1859.

[9] Cfr. Società Italiana di Anestesia Analgesia Rianimazione e Terapia Intensiva, Raccomandazioni di etica clinica per l’ammissione a trattamenti intensivi e per la loro sospensione, in condizioni eccezionali di squilibrio tra necessità e risorse disponibili, 6 marzo 2020, in SIAARTI_-_Covid19_-_Raccomandazioni_di_etica_clinica_(2) by SIAARTI – Flipsnack. Al riguardo v. B. Brancati, La selezione dei pazienti per l’ammissione alle terapie intensive. Una scelta tragica durante la pandemia di Covid-2019, in Consulta online, 27 marzo 2023, p. 250; C. Di Costanzo, Access to Intensive Care and Artificial Intelligence. A Constitutional Perspective, in It. Journ. Publ. Law, 2021, 594; L. Forni, Contro la pandemia. Analisi etico-giuridica del Piano pandemico 2021-2023, in Riv. Biodiritto, 2021, 4, 275; A. Rimedio, Criteri di priorità per l’allocazione di risorse sanitarie scarse nel corso della pandemia da Covid-19, ivi, 1, 13; D. Battisti-L. Marelli-M. Picozzi-M. Reichlin-V. Sanchini, L’allocazione delle risorse sanitarie durante la pandemia da Covid-19: un’analisi comparativa dei documenti della SIAARTI e del CNB, in Notizie di Politeia, 2021, 141, 25; C. Mannelli, Covid-19 e questioni di giustizia allocativa, ivi, 3; G. Facci, La medicina delle catastrofi e la responsabilità civile, in Resp. civ. prev., 2020, 706; L. Palazzani, La pandemia Covid-19 e il dilemma per l’etica quando le risorse sono limitate: chi curare?, in Riv. Biodiritto, 2020, 1, 359; L. D’Avack, Covid-19: criteri etici, ivi, 371; S. Marchiori-P. Sommaggio, Tragic choices in the time of pandemics, ivi, 453.

[10] Sullo «specifico bisogno di cura» del paziente e sull’insostituibile ruolo del medico nel «selezionare e nell’attuare le opzioni curative scientificamente valide e necessarie» cfr. Cons. Stato, sez. VI, 2 settembre 2014, n. 4460, in Nuova giur. civ. comm., 2015, I, 74 ss., con commenti di P. Zatti, Consistenza e fragilità dello «ius quo utimur» in materia di relazione di cura, di E. Palermo Fabris, Risvolti penalistici di una sentenza coraggiosa: il Consiglio di Stato si pronuncia sul caso Englaro, di R. Ferrara, Il caso Englaro innanzi al Consiglio di Stato, e di P. Benciolini, «Obiezione di coscienza?».

[11] Così l’art. 1, comma 6, legge 22 dicembre 2017, n. 219, Norme in materia di consenso informato e di disposizioni anticipate di trattamento: v. M. Foglia (a cura di), La relazione di cura dopo la legge 219/2017. Una prospettiva interdisciplinare, Pisa, 2019; Id., Consenso e cura, cit.; Id., Nell’acquario. Contributo della medicina narrativa al discorso giuridico sulla relazione di cura, in Resp. med., 2018, 373 ss.; R. Conti, Scelte di vita o di morte: il giudice è garante della dignità umana? Relazione di cura, DAT e “congedo dalla vita” dopo la l. 219/2017, Roma, 2019; Id., La legge 22 dicembre 2017, n. 219, in una prospettiva civilistica: che cosa resta dell’art. 5 del Codice civile?, in Consulta Online, 4 aprile 2018, 221; S. Cacace-A. Conti-P. Delbon (a cura di), La Volontà e la Scienza. Relazione di cura e disposizioni anticipate di trattamento, Torino, 2019; Aa.Vv., La nuova legge n. 219/2017, in Riv. Biodiritto, 2018, 1, 1-104; M. Azzalini, Legge n. 219/2017: la relazione medico-paziente irrompe nell’ordinamento positivo tra norme di principio, ambiguità lessicali, esigenze di tutela della persona, incertezze applicative, in Resp. civ. prev., 2018, 8; G. Ferrando, Rapporto di cura e disposizioni anticipate nella recente legge, in Riv. crit. dir. priv., 2018, 67; S. Cacace, La nuova legge in materia di consenso informato e DAT: a proposito di volontà e di cura, di fiducia e di comunicazione, in Riv. it. med. leg., 2018, 935; S. Canestrari, Consenso informato e disposizioni anticipate di trattamento: una “buona legge buona”, in Corr. giur., 2018, 301; P. Zatti, Spunti per una lettura della legge sul consenso informato e le DAT, in Nuova giur. civ. comm., 2018, II, 247; C. Triberti-M. Castellani, Libera scelta sul fine vita. Il testamento biologico. Commento alla Legge n. 219/2017 in materia di consenso informato e disposizioni anticipate di trattamento, Firenze, 2018; M. Mainardi, Testamento biologico e consenso informato. Legge 22 dicembre 2017, n. 219, Torino, 2018; B. De Filippis, Biotestamento e fine vita. Nuove regole nel rapporto medico paziente: informazioni, diritti, autodeterminazione, Padova, 2018; M. Noccelli, La cura dell’incapace tra volontà del paziente, gli istituti di tutela e l’organizzazione del servizio sanitario, e Id., Il giudice amministrativo e la tutela dei diritti fondamentali, contributi entrambi pubblicati sul sito di Giustizia amministrativa, rispettivamente il 15 marzo 2018 e il 20 febbraio 2018.

[12] Sugli atti di disposizione del corpo cfr. G. Di Rosa, Dai principi alle regole. Appunti di biodiritto, Torino, 2013, 121 ss.; V. Marzocco, Dominium sui. Il corpo tra proprietà e personalità, Napoli, 2012; S. Stefanelli, Autodeterminazione e disposizioni sul corpo, Perugia, 2011; G. Anzani, Gli «atti di disposizione della persona» nel prisma dell’identità personale (tra regole e principi), in Nuova giur. civ. comm., 2009, II, 1; U. Breccia-A. Pizzorusso, Atti di disposizione del proprio corpo, Pisa, 2007; P. Veronesi, Il corpo e la Costituzione. Concretezza dei «casi» e astrattezza della norma, Milano, 2007, specie 209 ss.; M.C. Venuti, Gli atti di disposizione del corpo, Milano, 2002, 23 ss.; R. Romboli, La relatività dei valori costituzionali per gli atti di disposizione del proprio corpo, in Pol. dir., 1991, 565 ss.; Id., I limiti alla libertà di disporre del proprio corpo nel suo aspetto “attivo” ed in quello “passivo”, in Foro it., 1991, I, 14; Id., La libertà di disporre del proprio corpo, in F. Galgano (a cura di), Commentario del Codice civile Scialoja-Branca, Delle persone fisiche, sub art. 5, Bologna-Roma, 1988, 228; P. D’Addino Serravalle, Atti di disposizione del corpo e tutela della persona umana, Napoli, 1983; A. De Cupis, I diritti della personalità, in Trattato di diritto civile e commerciale, fondato da A. Cicu e F. Messineo, continuato da L. Mengoni, Milano, 1982, 101 ss. Risalente ma emblematica di un atto dispositivo del corpo a titolo oneroso è la vicenda di cui al Trib. Napoli, 13 dicembre 1931, in Riv. it. dir. pen., 1932, 428, con nota di O. Vannini, Lesione personale del consenziente; in Ann. dir. proc. pen., 1932, 596, con nota di D. Pafundi, Il consenso dell’offeso nelle lesioni personali, e in Giust. pen., 1932, II, 592, con commento di L. Severino, La lesione consensuale per innesto chirurgico. L’innesto della glandola sessuale; App. Napoli, 30 aprile 1932, in Riv. it. dir. pen., 1932, 757, con nota di T. Brasiello, Il consenso dell’offeso in tema di delitti contro l’incolumità individuale, e in Ann. dir. proc. pen., 1932, 952; Cass. pen., sez. II, 31 gennaio 1934, in Foro it., 1934, II, 146, con commento di R. Ruiz, Contro l’innesto Woronoff da uomo a uomo, e di O. Vannini, Ancora sulla lesione personale del consenziente. V. altresì C. Saltelli, Disponibilità del diritto e consenso dell’avente diritto (in tema di attentati alla integrità personale), in Ann. dir. proc. pen., 1934, 245, 369, e A. Sandulli, Ancora sulla lesione personale del consenziente, in La Scuola Positiva, II, 1932, 319.

[13] L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, 2022, 91 ss.

[14] Su autodeterminazione informativa e leggibilità dell’intelligenza artificiale cfr. in particolare M. Ciancimino, Protezione e controllo dei dati in àmbito sanitario e intelligenza artificiale, Napoli, 2020, 82 ss. Sull’inapplicabilità in àmbito sanitario dell’intelligenza artificiale allorché la cura sia intesa come care e non come semplice treatment, come nell’approccio proprio della medicina narrativa, v. A. Pizzichini, Oltre l’uomo o al suo servizio. Due paradigmi per pensare l’intelligenza artificiale, in Studia Moralia, 2022, 1, 100.

[15] Si interroga sul «diritto all’eroe» C. Casonato, I diritti nell’era dell’intelligenza artificiale. Nuove prospettive, in L. Picotti (a cura di), Automazione, Diritto e Responsabilità, Napoli, 2023, 29-30, chiedendosi quanti medici dispongano delle competenze adeguate e quanti si assumeranno il rischio di disattendere i risultati indicati dal sistema d’intelligenza artificiale e l’onere, dunque, di motivare una decisione difforme (c.d. «effetto pecorone»). Parimenti potrebbe dirsi, però, in ordine alle linee guida o alle buone pratiche clinico-assistenziali di cui agli artt. 5-6 della legge n. 24/2017: «Gli esercenti le professioni sanitarie (…) si attengono, salve le specificità del caso concreto, alle raccomandazioni previste dalle linee guida (…). In mancanza delle suddette raccomandazioni, gli esercenti le professioni sanitarie si attengono alle buone pratiche clinico-assistenziali» e «Qualora l’evento si sia verificato a causa di imperizia, la punibilità è esclusa quando sono rispettate le raccomandazioni previste dalle linee guida come definite e pubblicate ai sensi di legge ovvero, in mancanza di queste, le buone pratiche clinico-assistenziali, sempre che le raccomandazioni previste dalle predette linee guida risultino adeguate alle specificità del caso concreto» [corsivo di chi scrive].

[16] Il modo di ragionare della macchina per inferenza statistica e non per deduzione causale rende poco conoscibili l’iter logico e le motivazioni delle scelte adottate, che conseguentemente appaiono altresì non comunicabili, v. U. Ruffolo, L’Intelligenza Artificiale nei dispositivi medici e nell’attività sanitaria: per un’analisi interdisciplinare circa responsabilità, controlli preventivi e disciplina dei dati sanitari. Le conseguenti proposte interpretative e normative, in U. Ruffolo-M. Gabbrielli (a cura di), Intelligenza artificiale, dispositivi medici e diritto, Torino, 2023, 8. L’accountability «instaura una relazione di responsabilità in base alla quale un soggetto è obbligato a rendere conto del proprio operato»: cfr. L. Califano-V. Fiorillo-F. Galli, La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale, Torino, 2023, 140. Parimenti l’art. 24 GDPR impone al titolare del trattamento di mettere «in atto misure tecniche e organizzative adeguate per garantire, ed essere in grado di dimostrare, che il trattamento è effettuato conformemente al presente regolamento» [corsivo di chi scrive].

[17] Cfr. l’art. L4001-3 del Code de la santé publique (versione in vigore dal 4 agosto 2021): «Le professionnel de santé qui décide d’utiliser, pour un acte de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l’apprentissage a été réalisé à partir de données massives s’assure que la personne concernée en a été informée et qu’elle est, le cas échéant, avertie de l’interprétation qui en résulte». In àmbito anche non sanitario, cfr. l’art. 13, comma 2, lett. F, GDPR (General Data Protection Regulation, Regolamento UE 2016/679), secondo il quale, nel momento in cui i dati personali sono ottenuti, il titolare del trattamento fornisce all’interessato le informazioni necessarie per garantire un trattamento corretto e trasparente e, in particolare, «le informazioni relative all’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’art. 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata». L’art. 22 GDPR, a sua volta, contempla il diritto dell’interessato «di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona». Tuttavia, la necessaria conservazione del controllo del medico sulle indicazioni della macchina difficilmente si concilia con una decisione che, per rientrare nella previsione di cui all’art. 22 GDPR, dev’essere presa senza il coinvolgimento del professionista né con un intervento umano significativo. Cfr. al riguardo C. Casonato, I diritti nell’era dell’intelligenza artificiale. Nuove prospettive, in L. Picotti (a cura di), Automazione, Diritto e Responsabilità, cit., 24 ss.; D. Messina, La tutela della dignità nell’era digitale. Prospettive e insidie tra protezione dei dati, diritto all’oblio e intelligenza artificiale, Napoli, 2023, 299 ss.; M.G. Peluso, Intelligenza Artificiale e tutela dei dati, Milano, 2023, 93 ss.; A. Lombardi, Disciplina della tutela dei dati personali e regolazione dell’intelligenza artificiale: rapporti, analogie e differenze tra GDPR e AI Act, in Eur. Journ. Priv. Law Tech., 2023, 240; G. Cerrina Feroni, AI e protezione dei dati personali: le nuove sfide dell’Autorità garante, in D. Buzzelli-M. Palazzo (a cura di), Intelligenza artificiale e diritti della persona, Pisa, 2022, 111; A. Viglianisi Ferraro, Le nuove frontiere dell’intelligenza artificiale ed i potenziali rischi per il diritto alla privacy, in Pers. merc., 2021, 189; S. Manarella, La protezione dei dati contro un uso distopico dell’AI, in R. Giordano-A. Panzarola-A. Police-S. Preziosi-M. Proto (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, Milano, 2022, 51; M. Palmirani, Interpretabilità, conoscibilità, spiegabilità dei processi decisionali automatizzati, in U. Ruffolo (a cura di), XXVI lezioni di diritto dell’intelligenza artificiale, cit., 55; A. De Felice, Intelligenza artificiale e processi decisionali automatizzati: GDPR ed ethics by design come avamposto per la tutela dei diritti umani, in A. D’Aloia (a cura di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Milano, 2020, 415; E. Caterini, L’intelligenza artificiale «sostenibile» e il processo di socializzazione del diritto civile, Napoli, 2020, 51 ss.; G. Simeone, Machine learning e Tutela della Privacy alla luce del GDPR, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020, 275 ss.; G. Finocchiaro, Riflessioni su intelligenza artificiale e protezione dei dati personali, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020, 237; R. Messinetti, La tutela della persona umana versus l’intelligenza artificiale. Potere decisionale dell’apparato tecnologico e diritto alla spiegazione della decisione automatizzata, in Contr. impr., 2019, specie 868 ss.

[18] Diversamente può dirsi, naturalmente, se l’intelligenza artificiale è alla base del dispositivo medico di assistenza destinato a essere utilizzato dal paziente al suo domicilio. È necessario, inoltre, distinguere il piano del consenso informato espresso dall’ammalato in ordine alla prestazione sanitaria, di natura diagnostica o terapeutica poco importa (ovvero importa soltanto ai fini delle peculiarità della relativa comunicazione con il medico), e il piano del consenso informato del titolare dei dati al trattamento di questi, anche allorché si tratti di un paziente in relazione ai suoi dati sanitari: v. A. Amidei, Doveri e obblighi informativi nella sanità AI-assisted, al crocevia tra consenso informato, norme di data protection e prescrizioni regolatorie, in U. Ruffolo-M. Gabbrielli (a cura di), Intelligenza artificiale, dispositivi medici e diritto, cit., 195 ss. D’altro canto, ai sensi dell’art. 9 GDPR, il divieto di trattare dati relativi alla salute della persona rinviene eccezione allorché il trattamento sia necessario «per finalità di medicina preventiva o di medicina del lavoro, valutazione della capacità lavorativa del dipendente, diagnosi, assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali sulla base del diritto dell’Unione o degli Stati membri o conformemente al contratto con un professionista della sanità», ma purché tali dati siano trattati «da o sotto la responsabilità di un professionista soggetto al segreto professionale conformemente al diritto dell’Unione o degli Stati membri o alle norme stabilite dagli organismi nazionali competenti o da altra persona anch’essa soggetta all’obbligo di segretezza (…)».

[19] In questo senso, pare non attagliarsi alla relazione di cura un ragionamento in termini di distribuzione del rischio dell’inadempimento così come concordata dalle parti, in particolare mediante lo scambio di informazioni avvenuto nel corso delle trattative, su cui v. M. Faccioli, Responsabilità contrattuale e intelligenza artificiale, in Jus civile, 2024, 485.

[20] Nello stesso senso anche l’art. 50 dell’AI Act, secondo il quale «Providers shall ensure that AI systems intended to interact directly with natural persons are designed and developed in such a way that the natural persons concerned are informed that they are interacting with an AI system, unless this is obvious from the point of view of a natural person who is reasonably well-informed, observant and circumspect, taking into account the circumstances and the context of use». Non riguarderebbe, invece, l’àmbito sanitario (bensì soltanto i sistemi di cui all’allegato III) l’art. 86 dell’AI Act, che consacra il diritto di ottenere dal deployer spiegazioni «chiare e significative» in merito al ruolo svolto dal sistema intelligente ad alto rischio nel processo decisionale e sui «principali elementi della decisione adottata», allorché sia suscettibile di incidere significativamente sulla salute, sulla sicurezza e sui diritti fondamentali della persona che vi soggiace. Secondo l’art. 6 dell’IA Act, inoltre, «un sistema di IA è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti: a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell’Unione elencata nell’allegato I; b) il prodotto, il cui componente di sicurezza a norma della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto, è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell’Unione elencata nell’allegato I». Fra gli atti normativi enumerati, l’allegato I contempla altresì il Regolamento UE 2017/745 relativo ai dispositivi medici.

[21] Così il parere congiunto del Comitato Nazionale per la Bioetica e del Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita, Intelligenza artificiale e medicina: aspetti etici, 20 maggio 2020, 11. Sulla discriminazione algoritmica cfr. R. Trezza, La tutela della persona umana nell’era dell’intelligenza artificiale: rilievi critici, in federalismi.it, 2022, 277; S. Vantin, Alcune osservazioni su normatività e concetto di diritto tra intelligenza artificiale e algoritmizzazione del mondo, in GenIUS, 2022, 45; M.G. Peluso, Intelligenza Artificiale e dati di qualità: la tecnologia come valido alleato, in Riv. dir. media, 2022, 2, 322; G. Sartor, L’intelligenza artificiale e il diritto, Torino, 2022, 67 ss.; F. Faini, La governance dell’intelligenza artificiale fra etica e diritto, in Notizie di Politeia, 2020, 137, 59; G. Mobilio, L’intelligenza artificiale e le regole giuridiche alla prova: il caso paradigmatico del GDPR, in federalismi.it, 27 maggio 2020, specie 292 ss.; C. Colapietro-A. Moretti, L’Intelligenza Artificiale nel dettato costituzionale: opportunità, incertezze e tutela dei dati personali, in Riv. Biodiritto, 2020, 3, 373 ss.; A. Simoncini, Diritto costituzionale e decisioni algoritmiche, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020, 59 ss.; G. Sartor-F. Lagioia, Le decisioni algoritmiche tra etica e diritto, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., 63; P. Zuddas, Intelligenza artificiale e discriminazioni, in Consulta online, 16 marzo 2020, 1; F. Donati, Intelligenza artificiale e giustizia, in Riv. AIC, 2 marzo 2020, 415.

[22] Cfr. R. Carleo, Il trattamento dei dati sanitari digitalizzati tra tutele individuali e interessi comuni, in U. Ruffolo, M. Gabbrielli (a cura di), Intelligenza artificiale, dispositivi medici e diritto, cit., 153 ss.; V. De Berardinis, L’impiego delle nuove tecnologie in medicina, in G. Alpa (a cura di), Diritto e intelligenza artificiale, cit., 489 ss.

[23] Così C. De Menech, Intelligenza artificiale e autodeterminazione in materia sanitaria, in M. Faccioli (a cura di), Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina, Napoli, 2022, 15 ss.; cfr. altresì F. Lorè-P. Musacchio, Intelligenza Artificiale, tra profili di responsabilità e protezione dei dati personali: aspetti de jure condito e prospettive de jure condendo, in Riv. trim. dir. amm., 2024, 53 ss. Sulle informazioni e sulla calcolabilità e oggettività della decisione robotica che in riferimento a queste viene adottata cfr. N. Irti, Il tessitore di Goethe (per la decisione robotica), in Riv. dir. proc., 2018, 1179: «Quando parliamo di “dati”, di quello che già c’è e di cui ci impossessiamo, l’accento cade sull’oggettività del materiale disponibile, e così ci lasciamo sfuggire che (…) noi non raccogliamo i dati come frutti maturi caduti dall’albero nelle nostre mani, come realtà a sé stanti, passivamente rispecchiate dall’intelletto. Noi li ritagliamo e isoliamo nel mondo circostante, li scegliamo e classifichiamo, convertendoli in oggetto di informazione. L’informazione non è separabile dalla mente di colui che si informa e ci informa, dall’atto logico di chi prende possesso dei dati. Questo impossessamento esige e racchiude un’interpretazione. Le informazioni sono atti interpretativi, letture di quella parte di mondo a cui si volge il nostro interesse di oggi. (…) Questo a me sembra l’insopprimibile momento della soggettività, la quale (…) non rispecchia i dati, ma li costruisce e conforma. E questo è anche il luogo dei conflitti di potere, che non sono “neutralizzati” o composti dalla tecnica robotica, ma, per così dire, spostati alla fase di scelta delle informazioni». V. anche L. Gatt-R. Montinaro (a cura di), Storia di una ricerca. Natalino Irti, Torino, 2024, 61. La decisione è peraltro un problema di mera classificazione: cfr. G. Grandi-T. Scantamburlo, Apprendimento automatico e decisione umana, in F. Fossa-V. Schiaffonati-G. Tamburrini, Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica, Roma, 2021, 34 ss. Il rischio che, in nome della calcolabilità, si perda in termini di ermeneutica, di evolutività della norma e di giustizia stessa della decisione è evidenziato da G. Passagnoli, Ragionamento giuridico e tutele nell’intelligenza artificiale, in Pers. merc., 2019, 84-5; similmente, il vero e il giusto sono ridotti all’esatto per L. Sandonà, “Luoghi etici” e competenze etiche nell’era dell’intelligenza artificiale, in G. Piaia-R. Prete-L. Stefanutti (a cura di), Intelligenza artificiale e tutela della persona umana. Implicazioni etico-giuridiche, Padova, 125.

[24] Anche a fronte di informazioni corrette, la logica statistico-probabilistica dell’IA può giungere a conclusioni che discriminano, su base etnica o di genere, a motivo del perdurante effetto delle diseguaglianze storicamente presenti nei dati di partenza: così C. Casonato, I diritti nell’era dell’intelligenza artificiale, cit., 27. In ordine all’esigenza di un cambio di paradigma, grazie al quale la tecnologia incorpora la norma giuridica, così privilegiando il ruolo della prevenzione a quello della riparazione e la salvaguardia ex ante dei diritti fondamentali cfr. S. Amato, Biodiritto 4.0. Intelligenza artificiale e nuove tecnologie, Torino, 2020, 99 ss.

[25] Cfr., in particolare, l’art. 8 (Human dignity and individual autonomy) della Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (Vilnius, 5 novembre 2024), secondo il quale «Each Party shall adopt or maintain measures to respect human dignity and individual autonomy in relation to activities within the lifecycle of artificial intelligence systems; v. altresì C. Nardocci, La (seconda) svolta del 2024. Anche il Consiglio d’Europa decide di regolamentare l’intelligenza artificiale, in Biolaw Journal, 1, 2024, 73.

[26] V. in particolare C. De Menech, Intelligenza artificiale e autodeterminazione in materia sanitaria, cit., 16. Sul diritto alla discontinuità o all’incoerenza cfr. C. Casonato, I diritti nell’era dell’intelligenza artificiale, cit., 28-29. Invita all’ec­centricità J.S. Mill: v. in particolare, nella traduzione italiana di A. Agnelli, La Libertà, Milano, 1911, 68: «(…) quando le opinioni delle masse composte di uomini ordinarî, son diventate o divengono dappertutto il poter dominante, contrappeso e correttivo della loro tendenza sarebbe l’individualità sempre più spiccata de’ più eminenti pensatori. Soprattutto in tali contingenze gl’individui eccezionali dovrebbero essere incoraggiati ad agir diversamente dalla massa, in vece d’esserne impediti. (…). Appunto perché la tirannia dell’opinione è tale, ch’essa fa dell’eccentricità un delitto, è desiderabile, per ispezzare questa tirannia, che gli uomini siano eccentrici. L’eccentricità e la forza di carattere camminano sempre di pari passo; e la somma di eccentricità che una società contiene è generalmente in ragione diretta della somma d’ingegno, di vigore intellettuale e di coraggio morale ch’essa racchiuse. Ciò che davvero ci addita il principal pericolo dell’età nostra è il vedere così pochi uomini osare d’essere eccentrici». Sulla concezione di identità umana di Mill radicata nella libertà fr. E. Lecaldano, Identità personale, Roma, 2021, 77 ss. Sul rischio che l’impiego dell’intelligenza artificiale sia funzionale a perpetuare lo stereotipo, a rafforzare discriminazioni ed emarginazioni, a diffondere pregiudizi, cfr. L. D’Avack, Telemedicina e Intelligenza Artificiale, in U. Ruffolo-M. Gabbrielli (a cura di), Intelligenza artificiale, dispositivi medici e diritto, cit., 173.

[27] Riguardo alla inesistenza di un sistema etico che sia soddisfacente per tutti gli uomini, o anche per uno stesso uomo in qualsivoglia circostanza, cfr. P. Benanti, Le macchine sapienti. Intelligenze artificiali e decisioni umane9, Bologna, 2024, 150 s., e Id., Human in the loop. Decisioni umane e intelligenze artificiali, Milano, 2022, 89 ss. In ordine ai rischi di condizionamento sulla libertà di pensiero, cfr. R.J. Neuwirth, The EU Artificial Intelligence Act. Regulating Subliminal AI Systems, Londra, 2023.

[28] Si possono distinguere Clinical decision support system basati sulla conoscenza (Knowledge-based CDSS) e Clinical decision support system non basati sulla conoscenza (Non-Knowledge-based CDSS): cfr. A.G. Grasso, GDPR e Intelligenza Artificiale: limiti al processo decisionale automatico in sanità, in U. Salanitro (a cura di), SMART. La persona e l’infosfera, Pisa, 2022, 185-6, il quale rileva come i medici abbiano mostrato di preferire i primi per ragioni di affidabilità, prevedibilità e responsabilità, perché i secondi, fondati sul machine learning, più difficilmente possono spiegare le ragioni delle loro conclusioni.

[29] In questo senso, dunque, devono intendersi le indicazioni di cui al disegno di legge S. 1146 ‘Disposizioni e delega al Governo in materia di intelligenza artificiale’ (art. 7, Uso dell’intelligenza artificiale in ambito sanitario e di disabilità): «3. L’interessato ha diritto di essere informato circa l’utilizzo di tecnologie di intelligenza artificiale e sui vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché di ricevere informazioni sulla logica decisionale utilizzata. (…) 5. I sistemi di intelligenza artificiale in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica. 6. I sistemi di intelligenza artificiale utilizzati in ambito sanitario e i relativi dati impiegati devono essere affidabili, periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori». Cfr. R. Bartolomeo, Il DDL in materia di IA: l’utilizzo nell’attività giudiziaria e in ambito sanitario, in Riv. it. med. leg., 2024, 409.

[30] Il riferimento è in particolare all’art. 1, comma 8, legge n. 219/2017: «Il tempo della comunicazione tra medico e paziente costituisce tempo di cura».

[31] Così Comitato Nazionale per la Bioetica e del Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita, Intelligenza artificiale e medicina: aspetti etici, cit., 10. V. anche L. Meola, Intelligenza artificiale e relazione medico-paziente: implicazioni epistemiche ed etiche, in A. Patroni Griffi (a cura di), Bioetica, diritti e intelligenza artificiale, cit., 421 ss.

[32] Cfr. R.J. McDougall, Computer knows best? The need for value-flexibility in medical AI, in Journ. Med. Ethics, 2019, 45, 156. Sui «valori morali come requisiti della progettazione» cfr. V. Schiaffonati, Integrare la bioetica con l’etica della tecnologia per formare i professionisti del futuro, in L. Montagna-F. Consorti (a cura di), Medical professionalism e costruzione dell’identità professionale negli studenti di medicina, Milano, 2022, 7-8, nonché J. van den Hoven, ICT e Value Sensitive Design, in P. Goujon-S. Lavelle-P. Duquenoy-K. Kimppa-V. Laurent (a cura di), The Information Society: Innovations, Legitimacy, Ethics and Democracy In honor of Professor Jacques Berleur s.j., IFIP International Federation for Information Processing, Boston, 233, 2007, 67. Sulla moralizzazione della tecnologia e sui limiti così imposti alla libertà individuale v. P.P. Verbeek, Moralizing Technology. Understanding and Designing the Morality of Things, Chicago, 2011, specie 41 ss. Sul tema v. anche E. Spiller, Il diritto di comprendere, il dovere di spiegare. Explainability e intelligenza artificiale costituzionalmente orientata, in Biolaw Journal, 2, 2021, 419; A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e futuro delle libertà, ivi, 1, 2019, 76 ss.

[33] Sui livelli di autonomia dei robot chirurgici v. G. Tamburrini, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Roma, 2020, 133 ss.

[34] Fa riferimento a un’intelligenza artificiale costituzionalmente orientata anche C. Casonato, Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, in Riv. Biodiritto, 2019, 2, 711. Sottolinea l’importanza di «restare padroni delle domande giuste» A. Prencipe-M. Sideri, Il visconte cibernetico. Italo Calvino e il sogno dell’intelligenza artificiale, Roma, 2023, 51 ss. Il pretesto della neutralità della tecnica vorrebbe ridurre a questione meramente tecnica il discorso sui valori codificati negli algoritmi, così legittimandone l’opacità: cfr. G. Mobilio, L’intelligenza artificiale e i rischi di una “disruption” della regolamentazione giuridica, in Riv. Biodiritto, 2020, 2, 407.

[35] Sulla «giustiziabilità» delle decisioni adottate da sistemi tecnologici v. A. Simoncini, Il linguaggio dell’intelligenza artificiale e la tutela costituzionale dei diritti, in Riv. AIC, 12 aprile 2023, 35.

[36] Cfr. la proposta di direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale), in eur-lex.europa.eu; in particolare, al Considerando 15: «(…) this Directive should only cover claims for damages when the damage is caused by an output or the failure to produce an output by an AI system through the fault of a person, for example the provider or the user under [the AI Act]. There is no need to cover liability claims when the damage is caused by a human assessment followed by a human act or omission, while the AI system only provided information or advice which was taken into account by the relevant human actor. In the latter case, it is possible to trace back the damage to a human act or omission, as the AI system output is not interposed between the human act or omission and the damage, and thereby establishing causality is not more difficult than in situations where an AI system is not involved». Ancor più incisivamente, cfr. l’Impact Assessment Report della Commission Staff Working Document, in eur-lex.europa.eu: «However, in situations where the liable person acted on advice or recommendations given by an AI system, this AI-specific problem driver does not apply. In such cases, the human acting on the advice or recommendation will be responsible as there is a human action/omission, which can be a) identified, b) characterised as not complying with the relevant standard of care, and which would c) be the cause for a specific damage. This is for example the case with AI systems providing medical analysis or even suggestions for diagnosis and treatment, which are feeding into a decision on diagnosis and treatment, but that decision is ultimately taken by a human physician» (p. 10) e «This measure would not be relevant where AI systems are used to provide advice or information to human decision-makers (e.g. medical analysis AI informing the diagnosis and treatment decisions of human physicians). In such cases the AI system is not interposed in the causal chain between the relevant human action and the damage. It will thus not be necessary for the victim to establish what triggered a specific output of the AI system» (34). Per M. Faccioli, La responsabilità civile per danni cagionati da sistemi di intelligenza artificiale nel prisma dell’onere della prova, in Resp. civ. prev., 2024, 964-65, ogni settore della realtà socio-economica in cui l’IA può trovare spazio dovrebbe in linea di principio conservare la propria disciplina della responsabilità civile, la quale andrebbe adattata, in via ermeneutica o legislativa, solo eventualmente e per quanto effettivamente necessario. In questa direzione, l’Autore ritiene apprezzabile che la proposta di direttiva si concentri sui profili soltanto probatori, che però rivestono un’importanza cruciale ai fini dell’accesso alla giustizia dei soggetti danneggiati («approccio di armonizzazione minima e mirata»). Sui vantaggi di un sistema di regolazione ex ante rispetto a una tutela imperniata su rimedi ex post di tipo risarcitorio (responsabilità civile e correlati meccanismi assicurativi), cfr. G. Smorto, Distribuzione del rischio e tutela dei diritti nel regolamento europeo sull’intelligenza artificiale. Una riflessione critica, in Foro it., 2024, V, 208. Cfr. altresì K. Fiorenza, Tecnologia e diritto. Una odissea negli spazi extracontrattuali, Napoli, 2024, 191 ss.; il Complementary Impact Assessment del 19 settembre 2024, in www.europarl.europa.eu, studio critico dello European Parliamentary Research Service sulla proposta di direttiva (AILD); nonché, a quest’ultima antecedente, la Risoluzione del Parlamento europeo del 20 ottobre 2020, recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale, in www.europarl.europa.eu.

[37] L’intervento umano nel processo decisionale deve essere significativo e non meramente simbolico o nominale: cfr. A.G. Grasso, GDPR e Intelligenza Artificiale: limiti al processo decisionale automatico in sanità, cit., 189 ss.

[38] V. E. Bellisario, Il pacchetto europeo sulla responsabilità per danni da prodotti e da intelligenza artificiale. Prime riflessioni sulle Proposte della Commissione, in Danno resp., 2023, 153; C. D’Elia, Gli strumenti di intelligenza artificiale generativa nel contesto sanitario: problemi di ottimizzazione delle risorse e questioni di spiegabilità, in Riv. it. med. leg., 2023, 339; A.G. Grasso, Diagnosi algoritmica errata e responsabilità medica, in Riv. dir. civ., 2023, 334; A. D’Adda, Danno “da robot” (specie in ambito sanitario) e pluralità di responsabili tra sistema della responsabilità civile ed iniziative di diritto europeo, ivi, 2022, 805; U. Ruffolo, Tecnologie emergenti ed intelligenza artificiale in sanità: rischi e responsabilità, in U. Ruffolo-M. Savini Nicci (a cura di), Le nuove frontiere della responsabilità medica, Milano, 2022, 249 ss.; G. Di Rosa, I “robot” medici, in Pers. merc., 2022, 12; V. Dentamaro-D. Impedovo-G. Pirlo, Intelligenza artificiale nella medicina, in V.V. Cuocci-F.P. Lops-C. Motti (a cura di), La responsabilità civile nell’era digitale, Bari, 2022, 439; M. Tampieri, L’intelligenza artificiale e le sue evoluzioni. Prospettive civilistiche, Milano, 2022, 193 ss.; L. Scaffardi, La medicina alla prova dell’Intelligenza Artificiale, in DPCE online, 2022, 1, 349; G. Votano, Intelligenza artificiale in ambito sanitario: il problema della responsabilità civile, in Danno resp., 2022, 669; N. Rizzo, Strutture della responsabilità civile e intelligenza artificiale: i problemi in medicina, in M. Faccioli (a cura di), Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina, cit., 2 ss.; A. Bertolini, Dall’imaging ai sistemi esperti: la responsabilità del medico e le nuove frontiere della medicina difensiva, ivi, 39; M.B. Casali-U.R. Genovese, Intelligenza artificiale e responsabilità sanitaria: il punto di vista del medico legale, ivi, 117; G. Pasceri, Intelligenza artificiale, algoritmo, machine learning. La responsabilità del medico e dell’amministrazione sanitaria, Milano, 2021, 93 ss.; M. Savini Nicci-G. Vetrugno, Intelligenza artificiale e responsabilità nel settore sanitario, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., 601; F. Lagioia, L’intelligenza artificiale in sanità: un’analisi giuridica, Torino, 2020, specie 81 ss.; F. Vimercati, L’intelligenza artificiale in sanità, in P. Perlingieri-S. Giova-I. Prisco (a cura di), Rapporti civilistici e intelligenze artificiali: attività e responsabilità, Napoli, 2020, 211; V. Di Gregorio, Intelligenza artificiale e robotica: profili di responsabilità civile in campo sanitario, in Resp. med., 2019, 435. Più ampiamente, sulle difficoltà regolatorie nell’allocazione delle responsabilità che derivano dall’impiego dell’intelligenza artificiale e dalla sua interazione con l’essere umano, cfr. R. Bocchini, La regolazione giuridica dell’intelligenza artificiale, Torino, 2024, 87 ss.; M.W. Monterossi, Il risarcimento dei danni da intelligenza artificiale nello spettro della responsabilità “vicaria”, in juscivile, 2024, 175; G.F. Simonini, La responsabilità del fabbricante nei prodotti con sistemi di intelligenza artificiale, in Danno resp., 2023, 435; B. Tassone, Riflessioni su intelligenza artificiale e soggettività giuridica, in Dir. internet, 2023, 1; E. Palmerini, Intelligenza artificiale e responsabilità civile: vecchi rimedi per nuovi danni?, in G. Di Rosa-S. Longo-T. Mauceri (a cura di), Diritto e tecnologia. Precedenti storici e problematiche attuali, Napoli, 2023, 243; G. Donzelli, Intelligenza artificiale e responsabilità. Verso un nuovo modello europeo, in Contr. impr. Eur., 2023, 533; C. Scognamiglio, Responsabilità civile ed intelligenza artificiale: quali soluzioni per quali problemi?, in Resp. civ. prev., 2023, 1073; M. Faccioli, Intelligenza artificiale e responsabilità sanitaria, in Nuova giur. civ. comm., 2023, II, 732; E. Battelli, Necessità di un umanesimo tecnologico: sistemi di intelligenza artificiale e diritti della persona, in Dir. fam. pers., 2022, 1096; S. Orlando, Regole di immissione sul mercato e «pratiche di intelligenza artificiale» vietate nella proposta di Artificial Intelligence Act, in Pers. merc., 2022, 346; D. Chiappini, Intelligenza Artificiale e responsabilità civile: nuovi orizzonti di regolamentazione alla luce dell’Artificial Intelligence Act dell’Unione europea, in Riv. it. inf. dir., 2022, 2, 95; G. Finocchiaro, La regolazione dell’intelligenza artificiale, in Riv. trim. dir. pubbl., 2022, 1085; V. Di Gregorio, Intelligenza artificiale e responsabilità civile: quale paradigma per le nuove tecnologie?, in Danno resp., 2022, 51; G. Alpa, Quale modello normativo europeo per l’intelligenza artificiale?, in Contr. impr., 2021, 1003; F. Astone, Intelligenza artificiale e diritto civile, in V.V. Cuocci-F.P. Lops-C. Motti (a cura di), La circolazione della ricchezza nell’era digitale, Pisa, 2021, 3 ss.; G. Capilli, I criteri di interpretazione delle responsabilità, in G. Alpa (a cura di), Diritto e intelligenza artificiale, cit., 457; A. Amidei, Intelligenza artificiale e responsabilità da prodotto, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., 125; G. Proietti, La responsabilità nell’intelligenza artificiale e nella robotica, Milano, 2020, specie 39 ss.; R. Trezza, Diritto e intelligenza artificiale. Etica – Privacy – Responsabilità – Decisione, Pisa, 2020, 49 ss.; A. Baldi-D. Mula, Responsabilità civile e intelligenza artificiale, in G. Taddei Elmi-A. Contaldo (a cura di), Intelligenza Artificiale. Algoritmi giuridici. Ius condendum o “fantadiritto”?, Pisa, 2020, 167 ss.; A. Baldi-D. Mula, Intelligenza artificiale e responsabilità civile, U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione europea, in Riv. dir. civ., 2020, 1246; G. Capilli, Responsabilità e robot, in Nuova giur. civ. comm., 2019, II, 621; M. Costanza, L’Intelligenza Artificiale e gli stilemi della responsabilità civile, in Giur. it., 2019, 1686; U. Ruffolo, Intelligenza Artificiale, machine learning e responsabilità da algoritmo, ivi, 1689; Id., La responsabilità da intelligenza artificiale nel settore medico e farmaceutico, in Id. (a cura di), Intelligenza artificiale e responsabilità, Milano, 2017, 53.

[39] Cfr. però A.G. Grasso, GDPR e Intelligenza Artificiale: limiti al processo decisionale automatico in sanità, cit., 200, il quale rileva come sia più agevole confermare i risultati della macchina che discostarsene, secondo il pregiudizio dato dalla c.d. «fallacia computazionale» (una decisione adottata dal computer è più accurata di una umana).

[40] Cfr. per tutti F. Ferretti, Intelligenza artificiale e responsabilità civile nel settore sanitario, in Act. Jur. Iberoam., 2023, specie 1861 ss.

[41] Cfr. la direttiva 2024/2853 del Parlamento europeo e del Consiglio, del 23 ottobre 2024, sulla responsabilità per danno da prodotti difettosi, destinata ad abrogare la direttiva n. 85/374/CEE del Consiglio e pubblicata in Gazzetta ufficiale il 18 novembre 2024, cui gli Stati membri dovranno conformarsi entro il 9 dicembre 2026: cfr. eur-lex.europa.eu. In particolare, all’art. 9 è previsto l’obbligo del convenuto di divulgare gli elementi di prova e all’art. 10 una serie di presunzioni in ordine al carattere difettoso del prodotto e alla sussistenza di un nesso eziologico fra il difetto e il danno cagionato. D’altro canto, al Considerando 3 si legge che «la direttiva 85/374/CEE ha rappresentato uno strumento efficace e importante ma dovrebbe essere rivista alla luce degli sviluppi legati alle nuove tecnologie, compresa l’intelligenza artificiale (IA), (…) che sono fonte di incoerenze e di incertezza giuridica, specialmente in relazione al significato del termine “prodotto”». I sistemi di supporto alle decisioni cliniche sono dispositivi medici ai sensi del Regolamento UE 2017/745, peraltro rientranti nel livello di rischio più alto: cfr. A.G. Grasso, GDPR e Intelligenza Artificiale: limiti al processo decisionale automatico in sanità, in U. Salanitro (a cura di), SMART. La persona e l’infosfera, cit., 220 ss. In ordine all’esigenza di garantire l’effettività del risarcimento senza disincentivare la «domanda» di intelligenza artificiale, al contempo promuovendo l’«offerta» tecnologica più sicura, cfr. in particolare A. Albanese, La responsabilità civile per l’uso di sistemi di intelligenza artificiale, in R. Bocchini, Manuale di diritto privato dell’informatica, Napoli, 2023, 574. V. altresì C. Perlingieri, Profili di responsabilità per danni dall’uso dei Device medicali intelligenti, in U. Ruffolo-M. Gabbrielli (a cura di), Intelligenza artificiale, dispositivi medici e diritto, cit., 91 ss., nonché N.F. Frattari, Robotica e responsabilità da algoritmo. Il processo di produzione dell’intelligenza artificiale, in Contr. impr., 2020, 458.

[42] Cfr. in particolare Cons. Stato, 13 dicembre 2019, n. 8472, in Giur. it., 2020, 1191, con commento di M. Timo, Il procedimento di assunzione del personale scolastico al vaglio del Consiglio di Stato; in Nuova giur. civ. comm., 2020, I, 815, con commento di R. Mattera, Decisioni algoritmiche. Il Consiglio di Stato fissa i limiti; in Giorn. dir. amm., 2020, 366, con commento di A. Mascolo, Gli algoritmi amministrativi: la sfida della comprensibilità; e Cons. Stato, 8 aprile 2019, n. 2270, in Riv. giur. eur., 2019, II, 47, con commento di A. Di Martino, Intelligenza artificiale, garanzie dei privati e decisioni amministrative: l’apporto umano è ancora necessario? Riflessioni a margine di Cons. Stato 8 aprile 2019, n. 2270; in Eur. Journ. Priv. Law Tech., 2019, 147, con commento di G. Chiacchio, L’utilizzo dell’algoritmo nelle procedure valutative della PA (commento a Consiglio di Stato, sez. VI, sent. 8 aprile 2019, n. 2270). Al riguardo v. ex pluribus F. Marasà, Intelligenza artificiale e tutela dei dati personali. Quali riflessi sulla giustizia predittiva?, in Oss. dir. civ. comm., 2023, 1, 73; A. Torrisi, Riflessioni a margine di un recente progetto sull’utilizzo dell’intelligenza artificiale in ambito giuridico, in Pers. merc., 2023, 715; A. Pajno-F. Donati-A. Perrucci (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, 2, Amministrazione, responsabilità, giurisdizione, Bologna, 2022, 389 ss.; S. Penasa, Intelligenza artificiale e giustizia: il delicato equilibrio tra affidabilità tecnologica e sostenibilità costituzionale in prospettiva comparata, in DPCE online, 2022, 2, 297; A. Baldassarre, Diritto ex machina? L’intelligenza artificiale e l’attività giurisdizionale, in R. Giordano-A. Panzarola-A. Police-S. Preziosi-M. Proto (a cura di), Il diritto nell’era digitale, cit., 461 ss.; A. Police, Scelta discrezionale e decisione algoritmica, ivi, 493; A. Santosuosso, Intelligenza artificiale, conoscenze neuroscientifiche e decisioni giuridiche, in Teoria crit. reg. soc., 2021, 175; Id., Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Milano, 2020, p. 93 ss.; M. Gorga, L’Intelligenza Artificiale nella Pubblica Amministrazione, in G. Taddei Elmi-A. Contaldo (a cura di), Intelligenza Artificiale, cit., 137 ss.; E. Battelli, Giustizia predittiva, decisione robotica e ruolo del giudice, in Giust. civ., 2020, 282; R. Mattera, Decisione negoziale e giudiziale: quale spazio per la robotica?, in Nuova giur. civ. comm., 2019, II, 198. Mette a confronto le decisioni in campo sanitario con quelle in àmbito giudiziario anche C. Casonato, Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, cit., 716. Inoltre, secondo l’art. 14 (Uso dell’intelligenza artificiale nell’attività giudiziaria) del disegno di legge S. 1146 ‘Disposizioni e delega al Governo in materia di intelligenza artificiale’, similmente a quanto previsto per il medico all’art. 7: «l’uso dell’intelligenza artificiale nell’attività giudiziaria è previsto solo per finalità strumentali e di supporto, ovvero per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. La decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento è riservata al magistrato». Cfr. altresì l’art. 30 (Uso di procedure automatizzate nel ciclo di vita dei contratti pubblici) del Codice dei contratti pubblici (d.lgs. n. 36/2023), secondo il quale «le stazioni appaltanti e gli enti concedenti (…) assicurano la disponibilità del codice sorgente, della relativa documentazione, nonché di ogni altro elemento utile a comprenderne le logiche di funzionamento», garantendo la presenza, nel processo decisionale automatizzato, di un contributo umano capace di controllarlo, validarlo ovvero smentirlo.

[43] Paventa che la capacità predittiva dell’algoritmo sia da ascriversi a quelle liberalità stigmatizzate da Guido Calabresi come «doni dello spirito maligno» Mau. Ferrari, Predizione algoritmica, intelligenza artificiale generativa e rischi di cristallizzazione dell’ermeneutica giurisprudenziale, in Foro it., 2023, V, 118. Cfr. altresì L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale, Roma, 2020, 60 ss.; J. Castellanos-Claramunt, Garanzie giuridiche contro l’Intelligenza Artificiale. Possibilità e limiti della Cyberjustice, in i-lex, 2020, 1, 1.

[44] Sulla differenza fra dato e informazione e sull’abilità tipicamente umana di trovare significati e dare un senso alle cose (le decisioni umane vengono fatte sempre mediante determinazioni di senso), cfr. P. Benanti, Human in the loop. Decisioni umane e intelligenze artificiali, cit., 49.

[45] Cfr. N. Irti, Il tessitore di Goethe, cit., 1180-81: «La decisione affidata al robot non è un fenomeno anti-umano, un miracolo o una catastrofe. È una decisione “umana”, e appartiene, anch’essa, alla storia integrale dell’uomo. (…) La decisione robotica (…) è un arduo e grave tema, che il giurista affronta con timore o sospetto, quasi che sia in giuoco, al di là del proprio lavoro e dei proprî studî, l’integrale rapporto fra l’uomo e la tecnica. Questa è l’ansia filosofica che accompagna tutte le grandi svolte della storia, quando il senso stesso della vita sembra cadere nel dubbio o nel mistero (…)». Critica la possibilità stessa del controllo umano sulla decisione giuridica, perché, «nell’àmbito proprio dell’intelligenza artificiale (dell’analizzabile, del calcolabile, ecc.) non saranno i confini invalicabili dell’umano a porre argini, ma sarà l’intelligenza artificiale a ritracciare costantemente i contorni dell’umano» R. Caponi, Oralità e scrittura del diritto, intelligenza artificiale, in Riv. trim. dir. proc. civ., 2024, 391-92; similmente, quest’evoluzione tecnologica è «destinata a non lasciare l’uomo uguale a se stesso» per V. De Santis, Identità e persona nell’era dell’intelligenza artificiale: riflessioni a partire dall’AI Act, in federalismi.it, 7 agosto 2024, 137. Cfr. altresì G. Zaccaria, Figure del giudicare: calcolabilità, precedenti, decisione robotica, in Riv. dir. civ., 2020, 277; E. Calzolaio (a cura di), La decisione nel prisma dell’intelligenza artificiale, Milano, 2020; A. Carleo (a cura di), Decisione robotica, Bologna, 2019. In àmbito negoziale, sulla decisione robotica come «super-decisione» o come decisione migliore possibile cfr. G. Gitti, Tecnologie digitali, persona, istituzioni, in Riv. dir. civ., 2020, 1231.

[46] A. Santosuosso, Intelligenza artificiale, conoscenze neuroscientifiche e decisioni giuridiche, cit., 186, citando P. Calamandrei, Processo e democrazia, Padova, 1954, 101.

[47] Cfr. F. Donati, The use of artificial intelligence in judicial systems: ethics and efficiency, in It. Journ. Publ. Law, 1, 2024, 1-7; J. Ponce Solé, Il Regolamento dell’Unione europea sull’Intelligenza Artificiale, la discrezionalità amministrativa e la riserva di umanità, in Riv. trim. dir. pubb., 2024, 825; G. Finocchiaro, L’intelligenza artificiale nell’àmbito giudiziario, in Riv. trim. dir. proc. civ., 2024, 425; S. Latino, La tesi onnicomprensiva della razionalità giudiziale al vaglio della neuroscienza cognitiva, in Dir. inf., 2024, 186; V. Tenore, Riflessioni sulle diverse questioni giuridiche ed esistenziali derivanti dal crescente utilizzo di intelligenze artificiali, in Dir. rel. ind., 2024, 642; R.E. Kostoris, Intelligenza artificiale, strumenti predittivi e processo penale, in Cass. pen., 2024, 1642; N.M. Tritto, Il danno erariale da intelligenza artificiale, in federalismi.it, 2024, 282; C. Sagone, Efficientamento della giustizia e intelligenza artificiale, in Riv. AIC, 2024, 306; G. De Minico, Giustizia e Intelligenza Artificiale: un equilibrio mutevole, ivi, 85; C. Trincado Castán, The legal concept of artificial intelligence: the debate surrounding the definition of AI System in the AI Act, in Biolaw Journal, 1, 2024, 305; Y. Razmetaeva, Artificial intelligence and the end of justice, ivi, 345; Mau. Ferrari, Ethical AI: Definition of the techno-legal rules to oversee decisions of the automation, Napoli, 2024; U. Ruffolo-A. Amidei, Diritto dell’Intelligenza Artificiale, II, 2024, Roma, 15 ss.; N. Rangone, Intelligenza artificiale e pubbliche amministrazioni: affrontare i numerosi rischi per trarne tutti i vantaggi, ivi, 2, 2022, 473; S. Arduini, La “scatola nera” della decisione giudiziaria: tra giudizio umano e giudizio algoritmico, ivi, 2, 2021, 453.

[48] Così A. Kiseleva-D. Kotzinos-P. De Hert, Transparency of AI in Healthcare as a Multilayered System of Accountabilities: Between Legal Requirements and Technical Limitations, in Front. Artif. Intell., 30 maggio 2022, 1-21, che pure correlano trasparenza del sistema intelligente e responsabilità del medico: «(…) in the AI context, the ability to comply with the requirement of informed consent depends not only on the medical knowledge of healthcare providers (as is normally the case) but also on their comprehension of AI-based devices and their decisions. In addition, physicians shall be provided with the information that enables them to choose in what situations to apply AI tools, how to use them, and how to verify the results that an AI system suggests» (p. 9).

[49] È così necessario sostituire l’explainable AI con una human-centered explainable AI: cfr. M. Ridley, Human-centered explainable artificial intelligence: An Annual Review of Information Science and Technology (ARIST) paper, in Journ. Ass. Inf. Sc. Tech., 2025, 76 (1), 98. V., inoltre, N. Henke-T. Kelsey-H. Whately, Transparency – The Most Powerful Driver of Healthcare Improvement?, in Health International, 11, 2011, 65, che individuano sei benefici della trasparenza in àmbito sanitario: «accountability, choice, productivity, care quality/clinical outcomes, social innovation, and economic growth».