Linee guida per migliorare la trasparenza e l'equità nell'uso dell'IA in medicina
RomeInnovazioni nell'AI medica offrono opportunità per migliorare diagnosi e trattamenti. Tuttavia, emergono nuovi dati che evidenziano un problema rilevante: i sistemi di intelligenza artificiale possono essere soggetti a pregiudizi, con il rischio di generare disuguaglianze negli esiti sanitari. Risolvere questa questione è fondamentale per garantire che tutti traggano vantaggio in modo equo da queste tecnologie. Di recente, sono state pubblicate raccomandazioni chiave su The Lancet Digital Health e NEJM AI. Frutto del lavoro di oltre 350 esperti provenienti da 58 paesi nell'ambito dell'iniziativa internazionale STANDING Together, queste linee guida mirano a migliorare la diversità dei dataset e a identificare potenziali pregiudizi.
Il consiglio si concentra su importanti passaggi per garantire l'equità nell'utilizzo dell'IA in campo sanitario.
- Utilizzare dataset sanitari che rappresentano tutte le demografie, comprese le minoranze e i gruppi svantaggiati.
- Incoraggiare i fornitori di dataset a rivelare i pregiudizi e le limitazioni presenti nei loro dati.
- Fornire strumenti per i sviluppatori per valutare l'idoneità dei dataset nello sviluppo dell'IA.
- Descrivere metodi per testare rigorosamente i sistemi di IA per identificare pregiudizi tra diversi segmenti di popolazione.
Comprendere che i dati possono essere parziali è solo il primo passo. Le tecnologie AI devono essere testate accuratamente per garantire il loro buon funzionamento per diverse tipologie di persone. Questo richiede di modificare il modo in cui raccogliamo e analizziamo i dataset. Il dottor Xiao Liu, responsabile dello studio, sottolinea che non basta migliorare i dataset; è necessario un cambiamento fondamentale nel modo in cui vediamo e utilizziamo i dati sanitari.
L'iniziativa sottolinea l'importanza del contributo pubblico nella creazione di un'etica per l'IA. I rappresentanti dei pazienti sostengono che includere le opinioni del pubblico può rendere il processo di sviluppo più inclusivo. Questo aiuta a collegare gli scienziati con le persone interessate dalle tecnologie dell'IA, riducendo la possibilità di trascurare questioni importanti o di causare danni imprevisti.
Lo studio è pubblicato qui:
http://dx.doi.org/10.1016/S2589-7500(24)00224-3e la sua citazione ufficiale - inclusi autori e rivista - è
Joseph E Alderman, Joanne Palmer, Elinor Laws, Melissa D McCradden, Johan Ordish, Marzyeh Ghassemi, Stephen R Pfohl, Negar Rostamzadeh, Heather Cole-Lewis, Ben Glocker, Melanie Calvert, Tom J Pollard, Jaspret Gill, Jacqui Gath, Adewale Adebajo, Jude Beng, Cassandra H Leung, Stephanie Kuku, Lesley-Anne Farmer, Rubeta N Matin, Bilal A Mateen, Francis McKay, Katherine Heller, Alan Karthikesalingam, Darren Treanor, Maxine Mackintosh, Lauren Oakden-Rayner, Russell Pearson, Arjun K Manrai, Puja Myles, Judit Kumuthini, Zoher Kapacee, Neil J Sebire, Lama H Nazer, Jarrel Seah, Ashley Akbari, Lew Berman, Judy W Gichoya, Lorenzo Righetto, Diana Samuel, William Wasswa, Maria Charalambides, Anmol Arora, Sameer Pujari, Charlotte Summers, Elizabeth Sapey, Sharon Wilkinson, Vishal Thakker, Alastair Denniston, Xiaoxuan Liu. Tackling algorithmic bias and promoting transparency in health datasets: the STANDING Together consensus recommendations. The Lancet Digital Health, 2024; DOI: 10.1016/S2589-7500(24)00224-317 dicembre 2024 · 18:29
SoftBank: perché l'America attrae investimenti miliardari nell'AI?
17 dicembre 2024 · 16:10
Nuove competenze comunicative per gestire l’integrazione dell’IA nei team di vendita
16 dicembre 2024 · 18:58
Tradurre le intuizioni dell'IA in comprensione umana per fiducia e decisioni informate
Condividi questo articolo