人工知能や機械学習モデルへの依存が高まるなか、企業はその信頼性をどう担保するのか?
人工知能 (AI) は、機械によって意思決定を自動化することで、人間の理解を強化すると言われています。Tableau のマーケットインテリジェンスディレクターである Josh Parenteau は、人工知能と機械学習が「以前は見つけることができなかったインサイトを発見できるようにする」ような別の視点を提供すると話しています。ガートナー社の調査 (英語) は、2020 年までに、「85% の CIO (最高情報責任者) が、人工知能プログラムを購入、開発、またはアウトソースすることで、試験的に導入するようになる」と報告しています。しかし、企業が機械学習モデルに対する依存を高めていく一方、機械学習モデルが提示する推奨事項を信頼する根拠を、人はどこに見出せばよいのでしょうか?
多くの機械学習アプリケーションには現在、アプリケーションが提示する決定や推奨事項がどのようなアルゴリズムやロジックで計算されたかを理解する術がなく、AI プログラムを試験的に導入している企業は、AI 利用の拡大に懸念を抱いています。ケンブリッジ大学で機械学習の上級研究員を務める Adrian Weller 氏は、機械学習と同じように、「多くの場合、インテリジェントシステムを実世界で効果的に導入するには、透明性が非常に重要です」と説明 (英語) しています。透明性が必要な理由はいくつもありますが、中でも、設計したとおりに機械学習モデルが機能するようにすること、または機械学習モデルの予測に基づいた意思決定を自信をもって行えるようユーザーからの信頼を得ることが主な理由です。
透明性の必要性は、エクスプレイナブル AI (説明可能な AI) の成長につながり、機械学習モデルにも透明性に対する理解と提示が行われるようになりました。意思決定を行う人たちは、機械学習モデルが提供する情報やその情報の信頼度、また入力データが異なった場合の結果がどうなるかなど、1 つの答えに対して違う質問を続けてできるようになることを期待しています。これは、重要な意思決定を行う際に、リーダーがその問題のエキスパートに質問するのに非常によく似ています。Tableau の AI プロダクトマネージャーである Richard Tibbetts は、「意思決定者が、AI や機械学習によって提供される答えについての他の情報が得られない場合 (エクスプレイナブルでない場合) に懐疑的になるのは当然です。分析機能や AI は、あくまでも支援ツールであり、人間が持つ専門知識や理解を完全に置き換えるものではありません」と述べています。
特に金融サービス企業や製薬会社といった、リスクを懸念する組織の事業部門リーダーは、データサイエンスチームに対して、よりエクスプレイナブル (説明可能) で、モデルの構成方法を示す文書や監査証跡のあるモデルを使用することを求めています。データサイエンティストは、これらのモデルについてビジネスユーザーに説明しなければならなくなったため、結論を探索し検証するためのインタラクティブな手法として、BI プラットフォームを利用しています。
最終的に、企業は人工知能と機械学習の価値を受け入れるようになりました。しかし、企業に革新をもたらすには、AI が信頼できるものでなければなりません。AI は、提供する結論の根拠をわかりやすく、できるだけシンプルに示す必要があるほか、その結論に続く質問に動的に答えられなければなりません。こうすることで、人間はデータをより深く理解できるようになります。