Cultura

Se il robot è meglio del medico

  • Abbonati
  • Accedi
Intelligenza artificiale

Se il robot è meglio del medico

Manichino articolato  da un’edizione  del 1723 del volume «Opera Chirurgica»,  di Girolamo Fabrici d’Acquapendente
Manichino articolato da un’edizione del 1723 del volume «Opera Chirurgica», di Girolamo Fabrici d’Acquapendente

Mentre ci facciamo le domande sbagliate, cioè se l’Intelligenza Artificiale (AI) è una minaccia per l’uomo; quando l’AI diventerà consapevole di sé; se prenderà il sopravvento, etc, il mondo va per la sua strada. Come sempre. La domanda vera sarebbe: perché gli intellettuali tecnofobi hanno tale successo e fanno soldi con brutti e inutili libri contro l’AI? Ma la risposta si sa: la tecnofobia dipende da bias cognitivi e sociali che la selezione naturale ha cablato nel nostro DNA. Soprattutto in quello degli umanisti (ma non solo). E la selezione non può oggi fare nulla per liberaci da un atteggiamento da sempre deleterio per il governo intelligente dell’innovazione. Si pensi al culto diffuso per una fesseria come il principio di precauzione. Inoltre, c’è il problema drammatico che su questioni poco chiare e con risvolti etico-sociali si tende a discettare con riferimento a i principi umanistici risalenti a Platone e Ippocrate, o a qualche filosofo che scriveva cose pur sensate, ma prima di Charles Darwin, Louis Pasteur, Claude Bernard, Francis Crick o Gerald Edelman.

L’AI sta avendo e avrà un epocale impatto in medicina. Da qualche settimana l’agenzia di riferimento per i temi bioetici del Medical Research Council e della Wellcome Foundation ha licenziato un documento dove esamina aspetti etici e legali delle scelte cliniche e sanitarie prese con il supporto dell’AI. Si tratta dell’anticipazione di una analisi più corposa.

La prima preoccupazione sembra essere se l’AI renderà inutili i medici. La medicina è una tecnologia complessa, fondata sulla scienza, e nessun robot o algoritmo progettato da uomini al momento è in grado di affrontare sfide cognitive e operative a più livelli, come riesce a fare una mente umana progetta dalla selezione naturale. Inoltre, ci saranno sempre compiti che gli algoritmi non sapranno compiere, come ad esempio la manovra di Heimlich (antisoffocamento) o di Murphy o Trendelenburg, etc. Ma per queste basta addestrare dei paramedici.

L’AI sta accelerando il processo diagnostico e riducendo gli errori. La macchina riesce a controllare, con maggiore accuratezza, una quantità di dati che impegnerebbero per mesi un’equipe di medici. Vuol dire più vite salvate. Era prevedibile: il cervello umano dispone di pochi gigabyte di memoria operativa e la componente psicologico/emotiva, attivata da stress e autoinganni, può giocare negativamente nelle decisioni cliniche. L’AI aiuta a trovare soluzioni mediche per condizioni rare, attraverso l’accesso da banche dati e reti distribuite con vaste quantità di informazioni disponibili. L’AI consentirà anche di sdrammatizzare molti scenari clinici (soprattutto in ambito chirurgico dove i robot diventeranno presto intelligenti e più autonomi dall’uomo) e potenzierà le capacità di lavorare con sempre più precisione (usando metadati, meta-modelli, realtà aumentata, etc), sempre più sicurezza e tranquillità per i pazienti. L’AI potrebbe far sparire la medicina difensiva, e non solo abbattendo gli errori medici e le diagnosi sbagliate: stante che gli algoritmi sono più precisi ed efficienti, se decidessero come il medico, sarà difficile incolpare quest’ultimo di malpractice.

Perché secondo i “conservatori” le scienze della salute e della malattia avranno sempre bisogno di medici umani? Dicono che non si può meccanizzare l’empatia e che i pazienti non prenderebbero sul serio le raccomandazioni di un chatboat (Siri di Apple è un caso di chatboat), ovvero che la fiducia richiede un ascolto e risposte che implicano che il medico abbia una mente. Si tratta di affermazioni non provate, incluso il fatto che l’empatia sia così importante, ammesso si sia capito cosa sia e che non si tratti di un pericoloso miraggio. Inoltre, i chatboat riescono a interagire, diagnosticare o trattare i disturbi mentali come o meglio di psichiatri e psicoterapeuti: lo dicono finora gli studi clinici e le prove che riducono i casi di suicidio. Chissà perché la cosa non mi stupisce. È l’ennesima prova che di questi tempi psichiatri e psicoterapeuti sono sopravvalutati.

I medici, si dice inoltre, lavorano/ragionano in modi non lineari: in medicina sono richieste creatività e abilità nel problem solving, che algoritmi e robot non avranno mai. Mai dire mai! Forse non l’avranno nelle forme umane, ma potrebbero ottenere gli stessi risultati in altri modi, che al momento non sappiamo. In realtà, non c’è un reale conflitto tra tecnologia e uomo. Il caso dell’uso del deep learning per identificare il cancro metastatico del seno dimostra che quando il sistema automatizzato coopera con i patologi è più potente, e l’errore umano si riduce dell’85%.

I problemi veri nascono dal fatto che noi mettiamo negli algoritmi anche i nostri difetti psicologici, stante che usiamo molti dati fuorvianti (bias), che si rifletteranno negli algoritmi che li riutilizzano e nelle raccomandazioni cliniche che questi generano. Gli algoritmi possono essere progettati per distorcere i risultati, a seconda di chi li sviluppa e dai motivi dei programmatori, delle aziende e dei sistemi sanitari che li impiegano. Insomma, gli algoritmi li fanno gli uomini e si deve valutare criticamente la fonte dei dati usati per costruire i modelli statistici progettati per fare previsioni, capire criticamente come i modelli funzionano e guardarsi dal diventare del tutto dipendenti da essi. Ma non perché l’intelligenza artificiale sia una minaccia. Perché dipende ancora troppo dall’uomo. Senza dimenticare che dati raccolti sulla salute, le diagnosi e gli esisti clinici di un paziente diventano parte di una «conoscenza collettiva», cioè della letteratura medica e dell’informazione sanitaria, per cui devono essere usati con dovuta attenzione per gli aspetti personali implicati nel caso clinico.

Le linee guida cliniche basate sul machine learning introdurranno un attore che è parte terza nel rapporto medico-paziente, sfidando le attuali dinamiche di responsabilità etica e legale implicate nella relazione e l’aspettativa di confidenzialità. Se un AI sbaglia diagnosi o terapia e ci procura in danno, chi possiamo citare in tribunale? Quale è lo statuto legale di un AI? L’AI non è come un trapano del dentista che se si incendia per un difetto e ci ferisce, chiediamo i danni al costruttore. Ma non è nemmeno come un medico professionista. Qualcuno che ha studiato questo problema propone di equiparare le AI legalmente a studenti di medicina, che sono denunciabili se sbagliano le decisioni cliniche, ma che non sono imputabili in quanto la responsabilità delle loro scelte rinvia al medico supervisore, che non ha adeguatamente controllato, o all’ospedale che ha malamente organizzato il loro servizio.

Artificial Intelligence (AI) in health care and research

Nuffield Council on Bioethics

May 2018, http://nuffieldbioethics.org/wp-content/uploads/Artificial-Intelligence-AI-in-healthcare-and-research.pdf

© Riproduzione riservata