Naarmate organisaties steeds meer vertrouwen op modellen van artificial intelligence en machine learning, hoe kunnen ze de betrouwbaarheid ervan waarborgen?
Met artificial intelligence (AI) hoopt men dat machines mensen door middel van automatische besluitvorming beter inzicht in data kunnen geven. Josh Parenteau, Director of Market Intelligence bij Tableau legt uit hoe artificial intelligence en machine learning nog een ander perspectief bieden bij het "blootleggen van het soort inzicht dat nog niet eerder werd opgemerkt". Gartner-onderzoek geeft aan dat tegen 2020 "85% van de CIO’s AI-programma's aansturen via een combinatie van aankoop, bouw en uitbesteding van krachten”. Maar hoe kan de mens er naarmate organisaties steeds afhankelijker worden van machine learning-modellen dan zeker van zijn dat deze aanbevelingen betrouwbaar zijn?
Bij veel machine learning-applicaties kunnen we momenteel niet "onder de motorkap kijken" om de algoritmes en logica achter de beslissingen en aanbevelingen te doorgronden, dus organisaties die AI-programma’s inzetten maken zich terecht zorgen over een zeer brede toepassing ervan. Adrian Weller, senior onderzoeksstudent in machine learning aan de University of Cambridge, zegt het volgende: "Transparantie wordt vaak gezien als cruciaal voor het inzetten van een effectieve, realistische implementatie van intelligente systemen" zoals machine learning. Dit om een aantal redenen, maar vooral om er zeker van te zijn dat modellen werken zoals ze zijn bedoeld en om gebruikers vertrouwen te geven in het systeem, zodat ze overtuigd beslissingen kunnen nemen op basis van voorspellingen.
De behoefte aan transparantie heeft geleid tot de toename van Explainable AI: het verkrijgen van inzicht en het omzetten van transparante weergaven in machine learning-modellen. Besluitvormers verwachten vragen te kunnen stellen over waarom een model iets beweert, hoe zeker dit is en wat de uitkomst zou zijn als de invoer anders was, net zoals iemand een menselijke expert vragen zou stellen bij het nemen van cruciale beslissingen. Richard Tibbetts, Product Manager AI bij Tableau, vertelt: "Besluitvormers zijn terecht sceptisch wanneer AI en machine learning antwoorden verschaffen die niet kunnen worden verklaard. Analytics en AI hebben een ondersteunende functie en mogen en kunnen menselijke expertise en inzichten dan ook niet volledig vervangen."
Brancheleiders in organisaties (met name organisaties die zich bezighouden met risicovolle financiële diensten en farmaceutische bedrijven) eisen dat datawetenschappers modellen gebruiken die beter kunnen worden uitgelegd en die documentatie of een audit-trail verschaffen over hoe de modellen zijn opgezet. Het is aan datawetenschappers om zakelijke gebruikers inzicht te geven in deze modellen. Hierbij leunen zij op BI-platformen als interactieve methode voor het onderzoeken en goedkeuren van conclusies.
Hierdoor zijn bedrijven de waarde van artificial intelligence en machine learning gaan inzien. Maar om wijzigingen door te voeren die een flinke impact op organisaties kunnen hebben, moet er vertrouwen zijn in AI. De conclusies ervan moeten op een begrijpelijke manier en zo eenvoudig mogelijk kunnen worden gerechtvaardigd en vervolgvragen moeten op dynamische wijze worden beantwoord, zodat men de data beter kan begrijpen.