Così l’intelligenza artificiale può appianare i bias nella sanità

L’impiego dell’Ai nella sanità può neutralizzare pregiudizi e discriminazioni presenti da decenni nel settore, ma per fare ciò deve essere ulteriormente migliorata da specifici algoritmi

L’utilizzo dell’intelligenza artificiale in ambito medico promette di alleggerire il carico di lavoro di medici e tecnici, velocizzare numerose procedure e ottimizzare le risorse a disposizione di un sistema ospedaliero. Secondo un numero sempre maggiore di esperti però l’impiego dell’Ai nella sanità nasconde un altro potenziale da non sottovalutare: neutralizzare pregiudizi e discriminazioni presenti da decenni nel settore.

intelligenza-artificiale

Rischi e opportunità
Uno dei rischi connessi all’utilizzo indiscriminato delle tecniche di intelligenza artificiale in ambito medico è che questi modelli restituiscano risultati influenzati da pregiudizi, o bias. Il problema è noto in tutto il settore dell’Ai: le banche dati utilizzate per addestrare i modelli algoritmici possono nascondere tracce di discriminazioni poco visibili all’occhio umano, che restando invisibili vengono ereditate da sistemi che poi vengono utilizzati per risolvere problemi di ogni genere.

Il tema è stato discusso anche nel corso di un recente convegno organizzato dalla Radiological Society of North America, durante il quale è emersa una conclusione chiara: una Ai accuratamente migliorata e supervisionata può non solo superare il rischio di incappare in bias dannosi, ma può anche appianare quelli tradizionalmente presenti nel settore medico.

La ricetta
Il primo passo — è emerso nel convegno — è ovviamente avere una salda comprensione delle ineguaglianze che si esprimono nel trattamento dei pazienti in ambulatori e ospedali: persone provenienti da diverse classi sociali hanno accesso a cure diverso tipo, e anche per questo lamentano diverse tipologie di problemi. Per realizzare algoritmi veramente robusti occorre tenere conto di queste disparità in tutte le fasi dello sviluppo.

È importante inoltre raffinare questi strumenti analizzandone gli errori anche dopo l’entrata in attività, ad esempio guardando alle diagnosi corrette e a quelle sbagliate: tutte quelle corrette avranno qualcosa in comune, così come quelle sbagliate; trovare il filo rosso può far capire in quali direzioni i sistemi già in uso siano squilibrati.

Infine, ascoltare i pazienti è fondamentale. Secondo una ricerca pubblicata su Nature, algoritmi programmati mantenendo al centro l’input dei pazienti possono restituire risultati più aderenti alla realtà a prescindere dall’individuo in cura, neutralizzando fenomeni discriminatori come quello del pain gap riportato tra persone di diverse etnie.

Risultati promettenti
La professoressa di radiologia Constance Lehman e la ricercatrice del MIT Regina Barzilay hanno presentato nel corso del convegno un algoritmo sviluppato secondo questi criteri e impiegato per valutare il rischio di cancro al seno basandosi solamente sulle mammografie delle pazienti — senza anamnesi né biopsie.

Il modello è stato addestrato su banche dati provenienti da popolazioni di etnie e classi sociali differenti e restituisce risultati più affidabili di altri modelli, il tutto senza operare discriminazioni che in questo settore svantaggiano statisticamente le donne di colore e aumentando l’inclusività e l’accuratezza dei modelli.

Nelle strutture supervisionate da Lehman è stata utilizzata proprio questa tipologia di algoritmi per assegnare una priorità alle pazienti da riesaminare a più stretto giro in un periodo di risorse limitate: quello della pandemia di Covid, che con le sue restrizioni ha portato ad annullare milioni di mammografie di controllo nei soli Stati Uniti. Con l’aiuto degli algoritmi, le cure disponibili sono andate a chi davvero ne aveva più bisogno.

Leggi anche

loading...