L’industria dei beni di consumo confezionati (CPG) è da sempre guidata dall’innovazione, con l’obiettivo di soddisfare le sempre mutevoli aspettative e preferenze dei consumatori. Negli ultimi anni, l’integrazione dell’Intelligenza Artificiale (AI) e dell’Intelligenza Artificiale Spiegabile (Explainable AI) si è rivelata una rivoluzione nei processi di ricerca e sviluppo (R&D) di questo settore.
In particolare, nei segmenti cosmetici e alimentari, il processo di formulazione per creare nuove varianti di prodotto o prodotti del tutto nuovi richiede spesso tempi incompatibili con le scadenze di mercato.
Matilde: accelerare l’innovazione e ottimizzare le formulazioni con l’Explainable AI
La soluzione Matilde di Intellico è una piattaforma di Explainable AI pensata per supportare il processo di formulazione dall’idea alla formulazione finita riducendo significativamente il time-to-market grazie ad un sistema di simulazione che predice in autonomia le migliori combinazioni di ingredienti. Questo sistema predice autonomamente le combinazioni ottimali di ingredienti, consentendo agli utenti di proiettare le caratteristiche finali del nuovo prodotto (come il livello di idratazione), basandosi sulla composizione degli ingredienti e sulle proprietà intrinseche (come la densità). Di conseguenza, Matilde agisce efficacemente come un “laboratorio virtuale”, in grado di modellare varie soluzioni e sottoporre alla validazione finale solo un numero ristretto di formulazioni, che risultano particolarmente promettenti.
Matilde combina il potenziale dei modelli di AI con la logica della “Explainability“. Oltre a restituire il risultato della previsione, Matilde consente agli utenti di esplorare le formulazioni che identifica come simili a quella di riferimento, mettendo in evidenza i fattori (ingredienti o proprietà) che hanno il maggiore impatto sulla caratteristica finale del prodotto. In questo modo il risultato della predizione non si limita ad essere espresso con uno score o con una scala ma lo si rende “spiegato” in tutte le componenti che il modello ha identificato. Il risultato e la modalità con cui il modello di predizione ha ragionato vengono così rappresentati come risultato finale attraverso grafici.
Con Matilde non si sostituisce il formulatore ma lo si accompagna attraverso le varie fasi di ricerca e sviluppo, consentendogli di:
- esplorare progetti precedenti, identificando esperienze da utilizzare come punto di partenza per il nuovo prodotto
- comprendere quali fattori influenzano il risultato atteso della formulazione e quindi concentrare l’attenzione della formulazione sul dosaggio di ingredienti specifici
- simulare nuove formulazioni e verificare fino a che punto il risultato si avvicina al riferimento individuato

Explainable AI: Rendere l’Intelligenza Artificiale trasparente ed etica per il futuro dell’AI
L’Explainable AI, nota anche come XAI (eXplainable AI), è un ramo dell’intelligenza artificiale che mira a colmare il divario tra l’opacità dei complessi modelli di machine learning e la necessità di trasparenza e interpretabilità. I modelli tradizionali di AI, come le deep neural network, hanno prestazioni consistenti, ma non sono sufficientemente trasparenti per consentire ai decisori di comprendere i fattori che hanno influenzato le loro decisioni (“black box”).
La XAI è un campo in rapida evoluzione. Secondo un’analisi condotta da Scopus1, la letteratura scientifica ha mostrato un crescente interesse per l’argomento negli ultimi anni, come dimostrato dal volume di pubblicazioni in costante crescita. Ricercatori e professionisti hanno esplorato attivamente vari approcci e metodologie per migliorare l’interpretabilità e la trasparenza dei modelli di AI. Sono state sviluppate diverse tecniche XAI, incluse criteri per identificare le variabili in input rilevanti (cosiddetta: feature importance) o per comprendere gli impatti delle variabili attraverso analisi di scenario (ad esempio: counterfactual explanations, SHAP values) e altre ancora.
L’Artificial Intelligence Act (AIA) dell’Unione Europea, in corso di discussione, stabilisce che i sistemi di AI ad alto rischio debbano essere trasparenti e spiegabili per gli utenti. Questo si allinea alla previsione di Gartner2 secondo cui, entro il 2025, il 30% dei contratti governativi e delle grandi imprese richiederà l’utilizzo di AI spiegabile (XAI) ed etica.
Perché ci interessa l’Explainable AI: “keep human in the driving seat”
Ciò che impedisce l’ampia applicazione dell’AI nelle organizzazioni è la fiducia che i decisori hanno nei modelli. Con l’integrazione sempre più diffusa delle tecnologie AI nei processi aziendali, diventa cruciale comprendere e fidarsi delle decisioni prese da tali tecnologie. Secondo un sondaggio condotto da IBM3 nel 2022, 4 aziende su 5 hanno dichiarato di non poter applicare l’AI su larga scala poiché non erano in grado di spiegare come l’AI avesse raggiunto una decisione. Tra le barriere di adozione dell’AI troviamo la necessità di evitare bias non intenzionali e di controllare il deterioramento delle performance dei modelli (drifting), la necessità di comprendere meglio l’importanza dei dati di input e di spiegare perché il modello restituisce una previsione.
L’Explainable AI cerca di affrontare questa sfida fornendo spiegazioni leggibili e comprensibili sui risultati dei modelli, consentendo agli utenti di comprendere come e perché vengono raggiunte determinate conclusioni. L’utente comprende la logica su cui si fondano le previsioni e può migliorare la propria base di conoscenza per il processo decisionale o fornire feedback al modello per migliorare i criteri di previsione. Il risultato è un decision-maker “potenziato” che rimane “al posto di comando”, ma con una migliore comprensione delle determinanti. Questo diventa di valore in settori in cui le relazioni tra fattori sono molteplici e complesse da analizzare con tecniche tradizionali come la sanità, le formulazioni chimiche e altro ancora.
XAI nel settore CPG: casi d’uso
Le aziende del settore CPG possono anche sfruttare XAI per ottimizzare la selezione dei materiali e migliorare le strategie di marketing.
Per quanto riguarda la selezione dei materiali, è fondamentale scegliere i materiali corretti per i prodotti CPG per garantire qualità, sicurezza e sostenibilità. Quando si tratta di selezione dei materiali, l’AI svolge un ruolo cruciale nel supporto ai ricercatori e agli ingegneri nella scelta informata. Per selezionare i migliori componenti per un prodotto, gli algoritmi di machine learning possono analizzare le qualità di materiali alternativi, dati storici sulle prestazioni e feedback dei consumatori. Inoltre, le simulazioni e i test virtuali basati sull’AI possono prevedere come i materiali interagirebbero in diverse condizioni, accelerando la R&S e riducendo la necessità di costosi prototipi fisici. Le aziende del settore CPG possono migliorare la durata dei prodotti, la sostenibilità ambientale e la soddisfazione complessiva dei consumatori ottimizzando la selezione dei materiali.
Per quanto riguarda le strategie di marketing, le tecnologie AI assistono i rivenditori di beni di consumo nell’ottenere importanti informazioni dai modelli di comportamento dei consumatori, la storia degli acquisti e le interazioni sui social media nell’odierno mondo ricco di dati. Gli algoritmi di machine learning possono analizzare enormi quantità di dati per fornire una panoramica completa delle preferenze, delle tendenze e dei sentimenti dei consumatori. Queste informazioni consentono alle aziende di adeguare le proprie campagne, migliorare il posizionamento del prodotto e offrire esperienze personalizzate ai segmenti di pubblico mirati. L’analisi predittiva aiuta ulteriormente a prevedere la domanda, riducendo gli sprechi e ottimizzando la gestione delle scorte.
Conclusioni
Con l’avvento dell’Atto sull’Intelligenza Artificiale dell’Unione Europea, siamo all’alba di una nuova era, in cui l’Explainable AI può far crollare la facciata della “scatola nera” armonizzando la collaborazione uomo-AI. Attraverso l’Explainable AI il decisore può rimanere al “posto di comando”, ma sfruttare il potenziale conoscitivo dell’AI anche in quei contesti dove le variabili da considerare sono molteplici e le interazioni non immediatamente intuibili. Trasforma la temibile “scatola nera” in uno strumento accessibile e interattivo, amplificando il potenziale per l’integrazione diffusa dell’AI nelle organizzazioni.
Nel dinamico settore dei CPG, XAI può assumere un ruolo centrale, rivoluzionando tutto, dalla selezione dei materiali alle strategie di marketing. Matilde è lo strumento ideato da Intellico per facilitare la creazione di nuovi prodotti, comprimendo il time-to-market offrendo un laboratorio virtuale dove simulare e analizzare le ipotesi di nuovo prodotto.
Mentre ci troviamo sulla soglia di questa rivoluzione dell’AI, una cosa è chiara: con l’Explainable AI, il futuro dell’intelligenza artificiale non è solo promettente, ma comprensibile.
Fonti:
1. Scopus (2021)
2. Gartner (2023) “Beyond ChatGPT: Il futuro dell’IA generativa per le imprese”.
3. IBM (2022) Indice di adozione dell’IA a livello globale.
Contributori:
Riccardo Turrisi Grifeo
Matteo Mainetti