Introduzione
Nel settore sanitario, l’intelligenza artificiale sta trasformando profondamente i processi decisionali, dalla diagnosi alla pianificazione delle cure. Tuttavia, la fiducia nei sistemi di AI rimane una delle principali sfide alla loro adozione. In questo contesto, la spiegabilità dell’intelligenza artificiale (XAI) rappresenta un fattore chiave, perché consente a medici e stakeholder di comprendere, validare e correggere le decisioni algoritmiche, rendendo l’AI più trasparente, sicura e realmente utile.
Perché la spiegabilità dell’AI è fondamentale in sanità
La spiegabilità dell’AI comprende l’insieme di tecniche che permettono di interpretare il funzionamento dei modelli e i risultati che producono. In ambito sanitario, la XAI aiuta a valutare accuratezza, trasparenza e potenziali bias degli algoritmi, supportando decisioni cliniche più informate e responsabili.
Diversi studi mostrano che i professionisti sanitari riconoscono all’AI un ruolo importante nel migliorare l’accuratezza diagnostica e la personalizzazione delle cure. Allo stesso tempo, emergono timori legati alla perdita di controllo e alla difficoltà di monitorare sistemi automatizzati complessi [1]. È interessante notare che in alcuni casi, quando l’AI genera risultati inattesi, i clinici tendono a indagarne attivamente le cause, integrando la propria esperienza con le indicazioni del modello [2]. Questo conferma come la spiegabilità sia un abilitatore chiave della collaborazione uomo-macchina.
Tecniche di spiegabilità dell’AI, dai modelli tradizionali alle GNN
Le tecniche di Explainable AI si possono suddividere in due grandi categorie:
- Spiegabilità globale, che descrive il comportamento complessivo del modello
- Spiegabilità locale, che chiarisce le motivazioni alla base di una singola predizione
Tra i metodi più utilizzati troviamo:
- LIME, utile per interpretare predizioni locali attraverso modelli semplificati
- SHAP Values, che assegnano un contributo quantitativo a ciascuna variabile, sia a livello globale che locale
- Counterfactual analysis, che esplora come cambierebbe il risultato modificando alcune condizioni di input
Il punto di vista di Intellico sulla XAI
In Intellico vengono sperimentate anche tecniche avanzate di spiegabilità basate su Graph Neural Network [3], particolarmente adatte a rappresentare sistemi complessi e relazionali. Tra queste:
- GNNExplainer, che identifica nodi e relazioni più rilevanti all’interno di un grafo
- Community detection, che individua gruppi di dati con caratteristiche simili
Queste metriche sono integrate nella piattaforma MATILDE, utilizzata per lo sviluppo di nuove formulazioni nei settori chimico, cosmetico e alimentare. Oltre a benefici concreti sul Time To Market, gli utenti di MATILDE hanno evidenziato come l’interazione uomo-macchina favorisca un apprendimento reciproco, sia per le persone sia per i sistemi intelligenti (https://intellico.ai/blog/explainability-and-innovation-how-xai-is-transforming-new-product-development/).
Dalla ricerca all’ospedale, il progetto SHIFT-AI
Il progetto SHIFT-AI, finanziato nell’ambito del progetto FAIR – Spoke 1 nasce con l’obiettivo di trasferire queste tecniche di XAI nei processi di pianificazione ospedaliera. I risultati ottenuti mostrano il valore concreto della spiegabilità dell’AI in sanità:
- Possibilità di elaborare la “complessità”, riducendo l’errore rispetto alle predizioni “manuali” grazie alla capacità di leggere un elevato numero di variabili simultaneamente
- Simulazione di scenari e analisi what-if, per esplorare ipotesi e risultati potenziali a supporto delle decisioni di pianificazione
- Spiegazione dei risultati clinici, grazie a SHAP Values e GNNExplainer, che permettono di analizzare le variabili più rilevanti per ciascun paziente
- Confronto tra pazienti simili, facilitato dalle tecniche di community detection, che aiutano il clinico a integrare l’output dell’AI con la propria esperienza
- Explainability e usability, la XAI genera valore reale quando è integrata in workflow dinamici di interazione continua tra esseri umani e sistemi intelligenti
Takeaways e conclusioni
La spiegabilità dell’AI è essenziale per costruire fiducia e favorire l’adozione delle tecnologie di intelligenza artificiale, soprattutto in sanità.
L’integrazione tra spiegabilità e usabilità è fondamentale, l’AI deve essere interpretabile e realmente action-oriented nei contesti operativi.
Il ruolo umano resta centrale per validare i risultati, correggere errori e comprendere pattern anomali. Scrivici per maggiori dettagli sui risultati SHIFT-AI.
Trasforma l’AI in uno strumento di fiducia, non solo di automazione. Contattaci, scopri come la XAI può generare valore concreto per la tua organizzazione.
Autori:
- Sara Uboldi – Head of Solutions Intellico
- Marco Rossetto – Product Owner Intellico
Referenze:
- Osservatorio Sanità Digitale, Politecnico di Milano, 2023/2024
- Sensi, F.; Lizzi, F.; Chincarini, A.; Binelli, C.; Sartori, L.; Retico, A. Augmenting, Not Replacing: Clinicians’ Perspectives on AI Adoption in Healthcare. Appl. Sci. 2025, 15, 12405. https://doi.org/10.3390/app152312405
- Dileo, M., Olmeda, R., Pindaro, M., Zignani, M. (2024). Graph Machine Learning for Fast Product Development from Formulation Trials. In: Bifet, A., Krilavičius, T., Miliou, I., Nowaczyk, S. (eds) Machine Learning and Knowledge Discovery in Databases. Applied Data Science Track. ECML PKDD 2024. Lecture Notes in Computer Science(), vol 14949. Springer, Cham. https://doi.org/10.1007/978-3-031-70378-2_19