Intelligenza Artificiale

Explainable AI in Sanità: cos’è, a cosa serve, limiti e sfide



Indirizzo copiato

Rendere i modelli di Intelligenza Artificiale più comprensibili, trasparenti e interpretabili, migliorando la supervisione umana e consentendo agli utenti di aprire la “scatola nera” dell’AI per capire come prende le decisioni: questo il nobile intento dell’AI “spiegabile”. Ma quali sono i vantaggi e gli ostacoli di questo approccio in ambito Medicina e Salute?

Pubblicato il 5 lug 2024

Valentina De Nicolò

Medico in formazione specialistica in Igiene e Medicina Preventiva – Università di Roma La Sapienza

Vittorio Grieco

Medico in formazione specialistica in Igiene e Medicina Preventiva – Università di Catania

Luigi De Angelis

Presidente SIIAM



Explainable-AI-Sanità

Negli ultimi anni, si sta assistendo sempre più ad un aumento dell’utilizzo di sistemi per la pre-diagnosi medica e il supporto alle decisioni cliniche (CDSS), alimentati dall’Intelligenza Artificiale (AI), in grado di fornire ai medici assistenza e supporto in tempo reale per prendere decisioni sull’assistenza ai pazienti.

Continua a leggere questo articolo

Articoli correlati

OSZAR »