Conforme las organizaciones confían más en la inteligencia artificial y en los modelos de aprendizaje automático, ¿cómo pueden garantizar que sean confiables?
La promesa de la inteligencia artificial (IA) sugiere que las máquinas aumentarán el entendimiento humano al automatizar la toma de decisiones. Josh Parenteau, director de inteligencia de mercado de Tableau, explicó cómo la inteligencia artificial y el aprendizaje automático actuarán como una nueva perspectiva, "ayudando a descubrir aquellas ideas que aún no se han descubierto". La investigación de Gartner indica que para 2020, "el 85 % de los CIO pilotearán programas de inteligencia artificial mediante una combinación de esfuerzos de compra, desarrollo y subcontratación". Pero a medida que las organizaciones se vuelven más dependientes de los modelos de aprendizaje automático, ¿de qué manera los seres humanos pueden estar seguros de que estas recomendaciones son confiables?
Muchas aplicaciones de aprendizaje automático actualmente no ofrecen una forma de "mirar bajo el toldo" para comprender los algoritmos o la lógica detrás de las decisiones y recomendaciones, por lo que las organizaciones que realizan pruebas piloto de programas de IA están legítimamente preocupadas por su adopción generalizada. Como lo señala Adrian Weller, investigador principal de aprendizaje automático de la Universidad de Cambridge, "con frecuencia, la transparencia se considera fundamental para permitir la implementación efectiva de los sistemas inteligentes en el mundo real" como el aprendizaje automático. Esto se debe a una variedad de razones; principalmente, para garantizar que los modelos funcionan según lo diseñado, o para establecer un nivel adecuado de confianza con los usuarios para que puedan tomar decisiones basadas en predicciones de forma segura.
La necesidad de transparencia ha llevado al crecimiento de la IA explicable, la práctica de entender y presentar vistas transparentes en los modelos de aprendizaje automático. Los encargados de tomar decisiones esperan poder tener la capacidad de hacer preguntas de seguimiento sobre por qué un modelo dice algo, qué tan confiable es y qué diría si los insumos fuesen diferentes, muy similar a cómo un líder le haría consultas a un experto humano al momento de tomar decisiones críticas. Como señala Richard Tibbetts, administrador de productos de IA de Tableau, "los responsables de la toma de decisiones tienen razón en ser escépticos cuando las respuestas proporcionadas por la IA y el aprendizaje automático no pueden explicarse. Los análisis y la IA deberían apoyar, pero no reemplazar completamente, a la experiencia y el entendimiento humano".
Los líderes de línea de negocios en las organizaciones, particularmente en organizaciones que se ocupan de los riesgos, como los servicios financieros y las compañías farmacéuticas, están exigiendo a los equipos de científicos de datos que usen modelos que sean más explicables y que ofrezcan documentación o un seguimiento de auditoría en lo que respecta a cómo se construyen los modelos. A medida que los científicos de datos tienen la tarea de explicar estos modelos a los usuarios corporativos, se apoyan en las plataformas de BI como un método interactivo para explorar y validar sus conclusiones.
En última instancia, las empresas han acogido el valor de la inteligencia artificial y del aprendizaje automático. Pero para que tenga un impacto disruptivo en las organizaciones, la IA debe ser confiable. Debe justificar sus conclusiones de una manera inteligible, tan simple como sea posible, y responder de manera dinámica a las preguntas de seguimiento; todo ello para ayudar a los seres humanos a comprender mejor sus datos.