随着企业越来越依赖于人工智能和机器学习模型,如何能确保它们是值得信赖的?
AI 人工智能的强大潜力表明,机器可以通过自动化决策来帮助人们理解事物。Tableau 市场情报总监 Josh Parenteau 以另一个视角解释了人工智能和机器学习将如何发挥作用,“帮助发现那些之前未经发觉的的见解。”Gartner 研究表明:到 2020 年,“85% 的首席信息官将通过购买、构建和外包等方式试点人工智能项目。”但是,随着企业越来越依赖机器学习模型,人类如何才能确保这些建议是可信的呢?可解释型 AI 的日益崛起回答了这个问题。
许多机器学习应用程序目前还没有以“知其然之后,知其所以然”的方式理解决策和建议背后的算法和逻辑,因此,AI 项目的试点企业有理由对人工智能的广泛应用感到担忧。正如剑桥大学机器学习领域的高级研究员 Adrian Weller 在这篇文章中所述:“透明性通常被认为是实现智能系统在现实世界的有效部署(如机器学习)的关键”。这种观点的产生有多种原因——主要是为了确保模型按照设计宗旨运作,或者是为了与用户建立信任,以便他们根据预测做出决策时有十足的把握。
对透明度的需求促进了可解释型 AI 的崛起,这种实践要求理解透明的观测结果并将其转换为机器学习模型。当某个模型得出一项结论时,决策者们希望能够通过进一步的问询来了解它为什么作出此结论,可信度有多高,不同的参考数据会让结论发生什么变化。这其实与领导者在做出关键决策时询问人类专家的情景非常相似。正如 Tableau 的 AI 产品经理所说:“当 AI 和机器学习提供的答案无法得到解释时,决策者持有怀疑态度是很正常的。分析和 AI 应该对人类的专业知识和理解能力提供辅助,而不是完全取代。”
在很多组织中,尤其像金融服务和制药公司等关注风险的组织,业务部门领导会要求数据科学团队使用更易于解释的模型,并提供关于模型如何构建的文档或审计跟踪。由于数据科学家的工作是向业务用户解释这些模型,因此他们日益依靠商业智能平台,以交互式方法来探索和验证结论。
最终,企业接受了人工智能和机器学习的价值。但要在企业中产生颠覆性影响,人工智能必须得到信任。它必须以尽量简明的方式论证其结论,并能动态回答上述后续问题,一切都是为了让人们能更好地理解他们的数据。