Em organizações que dependem cada vez mais de modelos de inteligência artificial e aprendizado de máquina, como garantir que esses modelos sejam confiáveis?
A promessa da inteligência artificial (IA) sugere que as máquinas vão aumentar a compreensão humana ao automatizar a tomada de decisões. Josh Parenteau, diretor de inteligência de mercado da Tableau, explica de que maneira a inteligência artificial e o aprendizado de máquina funcionarão como outra perspectiva, “ajudando a descobrir informações que antes não eram reveladas”. De acordo com uma pesquisa da Gartner, até o ano de 2020, “85% dos CIOs testarão programas de inteligência artificial combinando esforços de compra, criação e terceirização”. Em organizações que dependem cada vez mais dos modelos de aprendizado de máquina, como o ser humano pode garantir que esses resultados sejam confiáveis?
Poucos aplicativos de aprendizado de máquina dão acesso aos “bastidores” dos algoritmos ou da lógica por trás de suas decisões e recomendações. Nesse cenário, as organizações que testam programas de IA têm toda razão em se preocupar com a adoção generalizada. Conforme descrito por Adrian Weller, pesquisador sênior em aprendizado de máquina na Universidade de Cambridge, “muitas vezes a transparência é considerada fundamental para uma implantação eficaz de sistemas inteligentes no mundo real”, como o aprendizado de máquina. Isso acontece por vários motivos, mas principalmente para garantir que os modelos funcionem conforme o planejado ou para conquistar a confiança dos usuários, possibilitando decisões com base em previsões.
A necessidade de transparência levou ao crescimento da IA explicável, isto é, a prática de compreender e apresentar exibições transparentes dos modelos de aprendizado de máquina. Tomadores de decisões querem fazer perguntas sobre as razões que levam um modelo a dizer algo, o seu nível de confiança e sobre respostas hipotéticas, caso a pergunta fosse diferente (comportamento semelhante ao de líderes que consultam um especialista humano antes de tomar decisões importantes). Como observa Richard Tibbetts, gerente de produtos de IA da Tableau, “Os tomadores de decisões estão certos em manter o ceticismo diante de respostas inexplicáveis dadas por mecanismos de IA e aprendizado de máquina. As análises e a IA devem ajudar, mas não substituir totalmente o conhecimento e a compreensão humana”.
Os líderes de departamentos nas organizações (principalmente as que se preocupam com riscos, como serviços financeiros e empresas farmacêuticas) estão exigindo que suas equipes de ciência de dados usem modelos mais explicáveise disponibilizem uma documentação ou trilha de auditoria sobre como os modelos são desenvolvidos. Com a tarefa de explicar esses modelos aos usuários corporativos, os cientistas de dados recorrem às plataformas de BI como uma forma interativa de explorar e validar as conclusões.
Em última análise, as empresas adotaram o valor da inteligência artificial e do aprendizado de máquina. Mas para gerar um impacto transformador nas organizações, a IA precisa ser confiável. O mecanismo deve justificar suas conclusões de forma inteligível, com o máximo possível de simplicidade, e responder dinamicamente a todas as novas perguntas para ajudar o ser humano a entender melhor seus dados.