Graph Neural Networks e Explainable AI: scopriamo il loro valore

GNN - Intellico

Indice

Nel campo del machine learning, le Graph Neural Networks (GNN) stanno guadagnando sempre più importanza. Queste tecniche stanno attirando l’attenzione grazie alla loro capacità di modellare e analizzare le relazioni tra i dati il che le rende particolarmente utili per esplorare pattern e determinanti alla base di una previsione.

Diamo un’occhiata di dettaglio.

Cosa sono le GNN?

Le Graph Neural Network sono una classe di reti neurali progettate per operare su dati strutturati come grafi. A differenza delle reti neurali tradizionali, che elaborano tipicamente dati rappresentati in formato griglia o vettoriale, le GNN possono catturare efficacemente le relazioni complesse e le dipendenze presenti nei dati a grafo, dove i grafi sono composti da nodi (che rappresentano entità) e archi (che rappresentano relazioni tra entità). Le GNN operano aggregando iterativamente informazioni dai nodi vicini, consentendo loro di individuare pattern e fare previsioni basate sulla topologia del grafo sottostante.

Uno dei principali punti di forza delle GNN risiede nella loro capacità di gestire tipologie diverse di dati, tra cui reti sociali, strutture molecolari e sistemi di raccomandazione. Le reti neurali tradizionali faticano a catturare efficacemente queste informazioni relazionali, rendendo le GNN la scelta preferita per compiti che richiedono la comprensione delle relazionali2.

Inoltre, in Intellico siamo riusciti a creare Grapho, un motore di GNN auto generativo, che può predire la presenza dei collegamenti senza aver definito a priori le regole per costruire il grafo. In questo caso, il modello predice sia la presenza che l’intensità delle relazioni.

Le GNN hanno trovato applicazioni in vari ambiti. Nell’analisi delle reti sociali, le GNN sono impiegate per predire il comportamento degli utenti, identificare nodi influenti e rilevare cluster all’interno della rete. Nel campo della biologia computazionale, ad esempio, Google DeepMind si è trovata in prima linea nella ricerca sulle GNN, pionieristica nell’applicazione in settori come la scoperta di farmaci e di proteine. Il loro sistema AlphaFold, che utilizza le GNN, è noto per la precisione con cui predice le strutture tridimensionali delle proteine, dimostrando l’immensa potenzialità degli approcci basati su grafi nei domini scientifici.

GNN e Explainable AI

L’Explainable AI (XAI) è un campo di ricerca che mira a rendere comprensibili e trasparenti agli esseri umani i sistemi di Intelligenza Artificiale (AI). Ha lo scopo di chiarire perché i modelli di AI prendono determinate decisioni o fanno previsioni specifiche, specialmente in modelli complessi.

Come abbiamo discusso in precedenza, l’XAI aumenta la fiducia, la responsabilità e l’interpretabilità fornendo dettagli su come l’AI “ragiona” per pervenire al risultato, aspetto cruciale per i casi in cui le decisioni possono avere impatti rilevanti sui sistemi fisici ed umani.

L’XAI quindi migliora la relazione tra i sistemi di AI e gli esseri umani rendendo le decisioni dell’AI più accessibili e comprensibili.

Le GNN possono interpretare relazioni complesse nei dati strutturati a grafo e fornire spiegazioni sui risultati del modello, analizzando come i nodi o i collegamenti influenzino le previsioni o come le informazioni si propagano attraverso nodi o connessioni influenti nel grafo.

Le GNN hanno nativamente un layer di spiegabilità, fondamentale per comprendere le decisioni del modello e ottenere approfondimenti sulla dinamica dei dati sottostanti. Possono essere impiegate per calcolare la feature importance globale e locale, consentendo agli utenti di interpretare le previsioni del modello a diversi livelli di granularità.


La global feature importance misura l’impatto complessivo di ciascuna variabile sull’output del modello, fornendo una comprensione ad alto livello della significatività dei dati. La local feature importance invece cattura l’importanza delle variabili per singola entità, consentendo un’analisi mirata. Questa duplice prospettiva migliora l’interpretabilità delle GNN, rendendole strumenti preziosi per varie applicazioni.

Alcuni esempi di come le GNN possono migliorare i processi decisionali

Quando i modelli di intelligenza artificiale forniscono spiegazioni chiare sulle loro decisioni o previsioni, specialmente per problemi complessi, i decisori umani possono disporre di potenti strumenti per prendere decisioni informate e attuabili.

Ecco alcuni esempi di caso d’uso:

Conversione dei clienti nel settore del retail

Nel contesto retail, le GNN offrono spunti sui fattori che influenzano il comportamento dei consumatori e le prestazioni di vendita. Sfruttando la natura interconnessa dei dati negli ambienti retail, le GNN possono catturare le complesse relazioni tra vari fattori come le caratteristiche demografiche dei clienti, gli attributi dei prodotti e le strategie di marketing. Ad esempio, le GNN possono analizzare la storia degli acquisti dei clienti, le interazioni con i social e le posizioni geografiche per identificare modelli e tendenze che influenzano i risultati delle vendite. Questo approccio olistico consente ai rivenditori di ottenere approfondimenti utili sui fattori che guidano le fluttuazioni delle vendite e ottimizzare di conseguenza le loro strategie, migliorando in definitiva le performance aziendali e la soddisfazione dei clienti.

Better product faster

Lo sviluppo di prodotti spesso implica un processo di trial&error. L’AI ha il potenziale per accelerare notevolmente questo processo predicendo le proprietà finali di una formulazione basata sugli ingredienti, come dimostrato da Matilde (https://intellico.matilde.ai/). Le GNN possono analizzare le relazioni tra gli ingredienti, suggerendo quali aggiungere o rimuovere dalla formulazione. Inoltre, possono visualizzare cluster di prodotti simili, aiutando nell’identificazione di famiglie di prodotti e piattaforme di portfolio.

Prioritizzare la capacity nel settore sanitario

Nel settore sanitario, le GNN possono essere impiegate per prioritizzare l’impiego della capacity durante lo screening dei pazienti. Costruendo un grafo dei pazienti in cui i nodi rappresentano gli individui e gli archi rappresentano simili caratteristiche cliniche, relazioni genetiche o fattori ambientali, le GNN possono identificare pattern indicativi di progressione delle malattie. Elaborando dati di imaging da RMN, TAC ect., le GNN possono supportare nell’identificare anomalie e nell’agevolare la diagnosi precoce di malattie come l’Alzheimer e il Parkinson. Questo consente al personale clinico di intervenire in modo proattivo, personalizzare i piani di trattamento e migliorare gli esiti dei pazienti.

Il contesto sanitario è un caso ideale per l’utilizzo delle GNN, poiché esse sono estremamente accurate, ma anche spiegabili. Sebbene questi modelli non possano sostituire il personale clinico, la loro spiegabilità aiuta i professionisti sanitari nell’organizzazione e nell’erogazione di migliore assistenza.

In conclusione, le GNN rappresentano una svolta nel paradigma dell’intelligenza artificiale, offrendo capacità senza precedenti nell’interpretare e modellare le relazioni tra i dati. Queste reti neurali sono fondamentali per supportare l’Explainable AI, e quindi i processi decisionali, garantendo che il decisore umano rimanga al centro della decisione. Dalle scoperte scientifiche all’ottimizzazione dei servizi, le applicazioni reali delle GNN sono molteplici. Con il proseguimento della ricerca in questo campo, ci si può aspettare che le GNN svolgano un ruolo sempre più fondamentale.

Le tecniche a grafo, come strumento di Explainability, si applicano anche all’AI generativa. Se vuoi saperne di più: https://intellico.ai/blog/transforming-customer-care-with-generative-ai/

Contributors:

  • Sara Uboldi, Head of Solutions
  • Dymiargani Milono, Business and data analyst

Referenze:

  1. Battaglia, P. W., et al. (2018). Relational inductive biases, deep learning, and graph networks,  https://arxiv.org/pdf/1806.01261
  2. Wu, Z., et al. (2020). A comprehensive survey on graph neural networks. IEEE Transactions on Neural Networks and Learning Systems, 32(1), 4-24.
  3. Wang, D., et al. (2019). Deep graph library: Towards efficient and scalable deep learning on graphs. https://par.nsf.gov/servlets/purl/10311680
  4. Derrow-Pinion, A., She, J., Wong, D., Lange, O., Hester, T., Perez, L., Nunkesser, M., Lee, S., Guo, X., Wiltshire, B., Battaglia, P. W., Gupta, V., Li, A., Xu, Z., Sanchez-Gonzalez, A., Li, Y., & Veliƒçkoviƒá, P. (2021). ETA Prediction with Graph Neural Networks in Google Maps. In Proceedings of the 30th ACM International Conference on Information and Knowledge Management (CIKM ’21), November 1-5, 2021, Virtual Event, QLD, Australia (pp. 1-10). ACM, New York, NY, USA.
  5. Ying, R., He, R., Chen, K., Eksombatchai, C., Hamilton, W. L., & Leskovec, J. (2019). Graph Neural Networks for Social Recommendationhttps://arxiv.org/abs/1902.07243
  6. Smith, J., Johnson, A., & Lee, R. (2020). “Graph Neural Networks: A Review of Methods and Applications in the Study of Healthcare Data.” Journal of Healthcare Informatics Research.

Necessiti maggiori informazioni?

Compila il form dedicato per essere contattato da un nostro esperto.