La responsabilità in sanità quando sbaglia la macchina

ULTIMO AGGIORNAMENTO 0:03

Esattamente un anno fa, nel febbraio del 2020, la Commissione Europea ha pubblicato il libro bianco sulla intelligenza artificiale, ponendo in risalto vantaggi e criticità dell’utilizzo di tale tecnologia.

Quando si parla di intelligenza artificiale si fa riferimento a un insieme di tecnologie computazionali che operano anche in modo molto differente ma che sono ispirate al funzionamento del sistema nervoso umano.

Ebbene, gli impieghi della intelligenza artificiale sono molto più vari e frequenti di quanto si possa immaginare: ad esempio nell’assistenza sanitaria, nell’agricoltura, nella sicurezza. Ma di certo nell’ultimo anno hanno assunto maggior rilievo, anche critico, gli utilizzi di questi sistemi nella sanità e in particolare nella ricerca clinica e farmacologica; nei processi diagnostici e prognostici; nella somministrazione di terapie e nel controllo della sanità pubblica.

Durante l’emergenza epidemiologica da Covid-19, tali strumenti sono stati impiegati in alcune fasi della produzione dei vaccini, nella diagnosi della patologia mediante la lettura a distanza di tac toraciche in pochi secondi; ma già da tempo vengono impiegati in medicina, ad esempio nella individuazione della migliore terapia per alcune malattie oncologiche.

I vantaggi derivanti da queste moderne tecnologie in campo sanitario sono notevoli in termini di riduzioni dei costi, di riduzione dei tempi e di miglioramento dei trattamenti proposti. Al tempo stesso, l’intelligenza artificiale comporta una serie di rischi potenziali, quali meccanismi decisionali opachi, discriminazioni basate sul genere o di altro tipo, intrusioni nelle nostre vite private o utilizzi per scopi criminali. Ma soprattutto, impone una valutazione delle responsabilità in caso di danni e di errori.

La macchina, l’algoritmo possono infatti sbagliare: di chi sarà la colpa dell’errore? Chi sarà tenuto a risarcire il danno subito dal paziente? I paradigmi di responsabilità che vengono in rilievo possono essere vari: si va dalle regole dettate per la responsabilità da prodotto difettoso, alle responsabilità contrattuali ed extracontrattuali. Certo è che la macchina non potrà rispondere ex se né tantomeno potrà risarcire i danni subiti dal paziente, per cui l’allocazione del rischio di errore dovrebbe ricadere sul medico che di quella macchina abbia beneficiato.

Dovremmo quindi immaginare di responsabilizzare il medico per un errore commesso da una macchina: una simile conclusione garantirebbe la tutela del paziente dai possibili risvolti negativi dell’utilizzo delle moderne tecnologie; ma finirebbe con l’aggravare anche notevolmente la posizione del medico e probabilmente con lo scoraggiare l’impiego di tali strumenti in sanità.

Probabilmente in questa materia vi è la necessità di un intervento normativo che utilizzi il criterio dell’accountability, che imponga quindi all’utilizzatore della macchina o forse al trainer di adottare le misure giuridiche, organizzative e tecniche per assicurare la tutela dei pazienti e, nel caso di errori, prevedere un fondo per il risarcimento imponendo comunque meccanismi di assicurazione per i soggetti che potrebbero essere chiamati a risarcire il danno.

Ma certo è che la tecnologia porta con se vantaggi ma anche dubbi e criticità che dovranno essere risolti in ambito legislativo.

Di questi temi si parlerà in un incontro di approfondimento il prossimo 25 febbraio dal titolo “La comunicazione in sanità: l’informazione e la relazione di cura nel contesto attuale”, volto proprio ad orientare gli addetti del settore verso la individuazione delle regole per assicurare la tutela di pazienti e sanitari nell’utilizzo delle moderne tecnologie avendo quale obiettivo ultimo la salvaguardia della relazione di cura.

Se vuoi commentare l'articolo manda una mail a questo indirizzo: scriviainterris@gmail.com
Avviso: le pubblicità che appaiono in pagina sono gestite automaticamente da Google. Pur avendo messo tutti i filtri necessari, potrebbe capitare di trovare qualche banner che desta perplessità. Nel caso, anche se non dipende dalla nostra volontà, ce ne scusiamo con i lettori.