Nota: O seguinte artigo irá ajudá-lo com: Estamos prontos para a IA ajudar na tomada de decisões humanas?
Uma das áreas emergentes do uso da IA nas corporações é auxiliar nas decisões humanas. Mas está pronto, e os tomadores de decisão estão prontos para isso?
A ideia de ferramentas baseadas em inteligência artificial assumindo empregos em todos os níveis das organizações foi gradualmente racionalizada em uma visão em que a IA serve mais como um assistente, assumindo várias tarefas para permitir que os humanos se concentrem no que fazem de melhor. Neste futuro, um médico pode gastar mais tempo em planos de tratamento enquanto uma ferramenta de IA interpreta imagens médicas, ou um profissional de marketing se concentra em nuances de marca, pois uma IA prevê os resultados de diferentes gastos de canal com base em resmas de dados históricos.
CONSULTE: Política de Ética em Inteligência Artificial (TechRepublic )
Esse conceito de emparelhamento homem-máquina está sendo estendido para aplicações militares. Vários programas estão construindo redes de sensores habilitados para IA integrando dados do campo de batalha e resumindo informações importantes para permitir que os humanos se concentrem em preocupações estratégicas e até morais, em vez de em qual ativo está onde.
Uma suposição subjacente desse emparelhamento é que as máquinas fornecerão um conjunto consistente e padronizado de informações para seus parceiros humanos. Com base nessa entrada consistente, a suposição é que os humanos geralmente tomarão a mesma decisão. Em um nível simplificado, parece sensato supor que, se uma máquina inteligente prevê chuva forte à tarde, a maioria dos humanos trará seus guarda-chuvas.
No entanto, essa suposição parece se basear em alguma variação da teoria do ator econômico racional da economia, de que os seres humanos sempre tomarão uma decisão que seja de seu melhor interesse econômico. Dado o mesmo conjunto de dados, a teoria presume que humanos diferentes tomarão a mesma decisão. A maioria de nós viu essa teoria ser refutada, já que os humanos são criaturas economicamente confusas, como demonstrado por indústrias de jogos de azar ao entretenimento que continuam a existir e prosperar, embora comprar bilhetes de loteria e binging na Netflix certamente não seja do nosso melhor interesse econômico.
MIT prova o ponto de tomada de decisão de IA
Um estudo recente do MIT Sloan, intitulado The Human Factor in AI-Based Decision-making, aponta para esse ponto. Em um estudo com 140 executivos seniores dos EUA, os pesquisadores apresentaram a cada um uma decisão estratégica idêntica sobre investir em uma nova tecnologia. Os participantes também foram informados de que um sistema baseado em IA fornecia uma recomendação para investir na tecnologia e, em seguida, perguntados se eles aceitariam a recomendação de IA e quanto estariam dispostos a investir.
Como um humano poderia esperar, os resultados dos executivos variaram, apesar de terem recebido exatamente as mesmas informações. O estudo categorizou os tomadores de decisão em três arquétipos, desde “céticos” que ignoraram a recomendação de IA a “delegadores”, que viram a ferramenta de IA como um meio de evitar riscos pessoais.
O comportamento de mudança de risco é talvez o resultado mais interessante do estudo, por meio do qual um executivo que aceitou a recomendação da IA, consciente ou inconscientemente, assumiu que poderia “culpar a máquina” caso a recomendação fosse ruim.
O problema do especialista com IA, versão 2
Lendo o estudo, é interessante ver a evolução da tecnologia a ponto de a maioria dos executivos estarem dispostos a adotar uma IA como parceira de tomada de decisão em algum grau. O que também chama a atenção é que os resultados não são necessariamente únicos no comportamento organizacional e são semelhantes à forma como os executivos reagem à maioria dos outros especialistas.
Considere por um momento como os líderes de sua organização reagem ao seu conselho técnico. Presumivelmente, alguns são naturalmente céticos e consideram sua opinião antes de fazer sua própria pesquisa profunda. Outros podem servir como parceiros de pensamento dispostos, enquanto outro subconjunto fica feliz em delegar decisões técnicas à sua liderança enquanto aponta o dedo da culpa caso as coisas dêem errado. Comportamentos semelhantes provavelmente ocorrem com outras fontes de conhecimento, desde consultores externos até acadêmicos e comentaristas populares.
VEJA: Folha de dicas do Metaverse: Tudo o que você precisa saber (PDF gratuito) (TechRepublic)
Um tema aparentemente recorrente de interações com especialistas, sejam humanos ou baseados em máquinas, são os vários graus de confiança entre diferentes tipos de pessoas. O estudo do MIT confere rigor a essa conclusão intuitiva que deve informar como os líderes de tecnologia projetam e implantam soluções de tecnologia baseadas em IA. Assim como alguns de seus colegas se inclinarão para “confiar, mas verificar” ao lidar com esforços externos bem credenciados, você também deve esperar que esses mesmos comportamentos ocorram com quaisquer “especialistas digitais” que planeja implantar.
Além disso, assumir que um especialista baseado em máquina resultará de alguma forma em uma tomada de decisão consistente e previsível parece ser uma suposição tão equivocada quanto assumir que todos que interagem com um especialista humano chegarão à mesma conclusão. Entender e comunicar esse inquilino fundamental da natureza humana ao lidar com um mundo confuso evitará que sua organização tenha expectativas irracionais de como as equipes de máquinas e humanas tomarão decisões. Para o bem ou para o mal, nossos parceiros digitais provavelmente fornecerão recursos exclusivos, mas serão utilizados no contexto de como nós, humanos, sempre tratamos conselhos de “especialistas”.