Las organizaciones utilizan cada vez más modelos de inteligencia artificial y aprendizaje automático, pero ¿cómo pueden asegurarse de que son fiables?
La promesa de la inteligencia artificial sugiere que las máquinas mejorarán la comprensión humana mediante la automatización de la toma de decisiones. Josh Parenteau, director de inteligencia de mercado de Tableau, explicó que la inteligencia artificial y el aprendizaje automático funcionarán como una perspectiva más para “ayudar a descubrir información que antes hubiera quedado oculta”. Un estudio de Gartner indica que en 2020 “el 85 % de los directores de tecnología probarán programas de inteligencia artificial por medio de una combinación de iniciativas de compra, desarrollo y contratación externa”. Pero, a medida que las organizaciones confían cada vez más en modelos de aprendizaje automático, ¿cómo pueden estar seguras las personas de que las recomendaciones con confiables?
Muchas aplicaciones de aprendizaje automático no cuentan actualmente con la posibilidad de “inspeccionar el motor” para comprender los algoritmos o la lógica detrás de las decisiones y recomendaciones; por eso, las organizaciones que realizan pruebas piloto de programas de inteligencia artificial tienen motivos para estar preocupadas por la adopción generalizada. Como detalló Adrian Weller, investigador adjunto sénior de aprendizaje automático de la Universidad de Cambridge, “a menudo, se considera fundamental la transparencia para permitir la implementación eficiente, en el mundo real, de sistemas inteligentes” como el aprendizaje automático. Los motivos son varios, pero el principal es garantizar que los modelos sigan el diseño o entablar una relación de confianza con los usuarios a fin de que sientan seguridad al tomar decisiones basadas en predicciones.
Esta necesidad de transparencia provocó el crecimiento de la inteligencia artificial explicable; es decir, la práctica de interpretar y presentar visiones transparentes de modelos de aprendizaje automático. Los responsables de la toma de decisiones esperan poder hacer preguntas de seguimiento sobre las razones por las cuales un modelo indica algo, cuán seguro está y qué diría si las entradas fueran diferentes. Este tipo de consultas son muy similares a las que le haría un líder a un experto antes de tomar decisiones críticas. Como explica Richard Tibbetts, administrador de productos de inteligencia artificial de Tableau: “El escepticismo de los responsables de la toma de decisiones está justificado cuando las respuestas proporcionadas por la inteligencia artificial y el aprendizaje automático no se pueden explicar. Los análisis y la inteligencia artificial deben ayudar (y no reemplazar por completo) la interpretación y la experiencia humanas”.
Los líderes de línea de negocios de las organizaciones (en especial aquellas que realizan tareas relacionadas con riesgos, como empresas farmacéuticas y de servicios financieros) exigen que los equipos de ciencia de datos usen modelos que se puedan explicar y proporcionen documentación o un registro de auditoría relacionados con cómo se desarrollan esos modelos. Cuando los científicos de datos tienen que explicarles los modelos a los usuarios corporativos, recurren a las plataformas de BI como un método interactivo para explorar y validar las conclusiones.
En última instancia, las empresas aceptaron el valor de la inteligencia artificial y el aprendizaje automático. Sin embargo, para tener un impacto revolucionario en las organizaciones, la inteligencia artificial debe generar confianza. Además, es necesario justificar las conclusiones de manera comprensible y sencilla, y hacer un seguimiento con preguntas para ayudar a los humanos a interpretar mejor sus datos.