조직이 인공 지능 및 기계 학습 모델에 점점 더 의존하는 이때, 그 기술이 신뢰할 만한지 어떻게 보장할 수 있을까요?
기계가 의사 결정을 자동화함으로써 인간의 이해를 향상시키게 된다는 것이 인공 지능(AI)에 대한 전망입니다. Tableau의 마켓 인텔리전스 책임자인 Josh Parenteau는 인공 지능과 기계 학습이 어떻게 “이전에는 발견하지 못했던 인사이트를 발견하도록 도우면서” 다른 관점으로 작용할지 설명했습니다. Gartner의 연구에 따르면, 2020년까지 “85%의 CIO가 구매, 구축 및 외주 인력의 방식을 결합하여 인공 지능 프로그램을 시험 운영하고 있을 것"이라고 전망합니다. 그런데 조직이 점점 더 기계 학습 모델에 의존하는 이때에, 인간은 인공 지능에 의한 권장 사항이 신뢰할 만한 것인지 어떻게 확신할 수 있을까요?
현재 대다수의 기계 학습 응용 프로그램에는 의사 결정 및 권장 사항 이면의 알고리즘 혹은 논리를 이해하는 '내막을 들여다보는' 방법이 없습니다. 따라서, AI 프로그램을 시험 운영하는 조직이 광범위한 채택에 대해 걱정하는 것은 무리가 아닙니다. 케임브리지 대학의 기계 학습 수석 연구원인 Adrian Weller가 요약한 대로, 기계 학습과 같은 “지능형 시스템이 현실에 효율적으로 배포되는 데 있어 투명성은 종종 매우 중요한 요소로 간주"됩니다. 투명성이 필요한 이유는 여러 가지가 있지만, 모델이 설계된 대로 작동하는지 확인하거나, 사용자가 예측을 기반으로 자신 있게 의사 결정을 내릴 수 있도록 사용자와의 신뢰를 구축하기 위한 것이 주된 이유입니다.
투명성에 대한 요구는, 기계 학습 모델에 대한 투명성을 제공하여 그 이면에 대한 이해를 돕는 관행이 되는 설명 가능한 AI의 성장을 촉진하고 있습니다. 의사 결정권자는 리더가 중요한 결정을 할 때 인간 전문가에게 질문하는 방식과 매우 흡사하게, 기계 모델이 왜 그런 결론을 도출했는지, 이것이 얼마나 신뢰할 만한지, 그리고 입력이 다를 경우 결과가 어떻게 다를지에 대한 후속 질문을 할 수 있기를 기대합니다. Tableau의 AI 제품 관리자인 Richard Tibbetts는 "AI 및 기계 학습이 제공한 답을 설명할 수 없다면, 의사 결정권자는 여기에 회의적일 수 밖에 없습니다. 분석과 AI는 인간의 전문 지식과 이해를 완전히 대체하는 것이 아니라 지원하는 도구가 되어야 합니다"라고 말합니다.
많은 조직, 특히 금융 서비스 및 제약 회사와 같은 위험 관련 업종의 사업 부문 리더는 데이터 과학 팀에게 좀 더 설명이 가능한 모델을 사용하고 모델 구축 방식에 대한 문서 또는 감사 추적 기능을 제공할 것을 요구하고 있습니다. 데이터 과학자는 이러한 모델에 대해 비즈니스 사용자에게 설명해야 하는 직무가 있으므로, 결론을 탐색하고 검증하기 위한 대화형 수단으로서 BI 플랫폼을 이용하고 있습니다.
결국, 기업들은 인공 지능 및 기계 학습의 가치를 수용할 수 있게 되었습니다. 그러나 조직에 혁신적인 영향을 주기 위해서는, AI의 신뢰성이 매우 중요합니다. AI는 제공하는 결론의 근거를 가능한 한 간결하고 이해할 수 있는 방식으로 보여줄 필요가 있으며, 후속 질문에 동적으로 응답할 수 있어야 합니다. 이를 통해, 인간은 자신의 데이터를 보다 잘 이해할 수 있게 됩니다.