Le organizzazioni si affidano sempre di più all'intelligenza artificiale e ai modelli di apprendimento automatico, ma come possono garantirne l'affidabilità?
La promessa dell'intelligenza artificiale (AI) è che le macchine miglioreranno la comprensione umana automatizzando il processo decisionale. Josh Parenteau, Director of Market Intelligence di Tableau, ha spiegato come l'intelligenza artificiale e l'apprendimento automatico offrano un'altra prospettiva: "Aiutano a scoprire informazioni che prima non potevamo ottenere". Secondo una ricerca condotta da Gartner, entro il 2020 "l'85% dei CIO proverà programmi di intelligenza artificiale attraverso una combinazione di opzioni di acquisto, sviluppo e outsourcing". Le organizzazioni però dipendono sempre più dai modelli di apprendimento automatico, quindi come avere la certezza che questi consigli siano affidabili?
Attualmente molte applicazioni di apprendimento automatico non consentono di spingersi in profondità per capire come funzionano gli algoritmi o la logica che sta dietro ad alcune decisioni e raccomandazioni, quindi le organizzazioni che stanno provando i programmi di AI sono giustamente preoccupate di adottarle in modo esteso. Come sottolineato da Adrian Weller, ricercatore nel campo dell'apprendimento automatico all'Università di Cambridge, "la trasparenza è spesso un tema cruciale per un'efficace distribuzione dei sistemi intelligenti" come l'apprendimento automatico. Questo succede per una serie di ragioni: principalmente per garantire che i modelli funzionino così come sono stati progettati o per creare fiducia negli utenti, così che possano prendere senza timore decisioni basate sulle previsioni.
Il bisogno di trasparenza ha portato alla crescita dell'explainable AI, che permette di comprendere e presentare una visione trasparente nei modelli di apprendimento automatico. Chi prende decisioni vuole avere la possibilità di porre domande di follow-up sul perché un modello dica una cosa, quanto ne sia sicuro e cosa direbbe se gli input fossero diversi, così come un leader interrogherebbe un esperto per prendere decisioni fondamentali. Come precisa Richard Tibbetts, Product Manager for AI di Tableau, "chi prende decisioni ha tutto il diritto di essere scettico quando le risposte fornite dall'AI e dall'apprendimento automatico non possono essere spiegate. L'analisi e l'AI dovrebbero aiutare, ma non sostituire completamente, le competenze e la comprensione dell'uomo".
I leader di settore nelle organizzazioni, in particolare quelle interessate dal rischio, come i servizi finanziari e le aziende farmaceutiche, chiedono ai team di data scientist di utilizzare modelli più comprensibili e di fornire documentazione o l'audit trail di come i modelli sono stati costruiti. Per spiegare questi modelli agli utenti aziendali, i data scientist si affidano alle piattaforme di BI come metodo interattivo per esplorare e convalidare le conclusioni.
In ultima analisi, le aziende hanno compreso il valore dell'intelligenza artificiale e dell'apprendimento automatico. Ma per avere un impatto dirompente nelle organizzazioni, è necessario avere fiducia nell'AI. Deve giustificare le sue conclusioni nel modo più comprensibile e semplice possibile, e rispondere in maniera dinamica alle domande di follow-up, per aiutare le persone a comprendere meglio i propri dati.