David Zorrakino - Europa Press - Arquivo
MADRID, 18 mar. (EUROPA PRESS) -
As pessoas recorrem à experiência, ao bom senso e aos sinais sociais, enquanto a IA utiliza padrões estatísticos aprendidos a partir de dados; ambas podem se complementar, se forem implementadas corretamente, de acordo com um estudo da Escola de Negócios Stevens (Estados Unidos).
Hoje em dia, à medida que a IA se integra ao cotidiano de muitas pessoas, humanos e máquinas devem aprender a trabalhar bem juntos, segundo afirma a professora adjunta Bei Yan, da Escola de Negócios Stevens, em seu novo artigo intitulado “Sincronizando mentes e máquinas: o alinhamento cognitivo híbrido como mecanismo de coordenação emergente na colaboração humano-IA”, publicado na revista “Academy of Management”.
“As empresas utilizam a IA em conjunto com as pessoas, mas têm dificuldade em trabalhar bem juntas”, explica ela. “As pessoas pensam de maneira diferente da IA. As pessoas utilizam a experiência, o julgamento e os sinais sociais. A IA utiliza padrões estatísticos aprendidos a partir de dados”.
Essas diferenças podem ser complementares, mas somente se estiverem bem coordenadas, acrescenta. Quando não estão, os usuários podem confiar excessivamente nos resultados da IA, fazer mau uso dos sistemas ou perder tempo corrigindo-os ou buscando soluções alternativas. “Nesses casos, a IA não reduz o esforço, mas gera atrito”, reflete. “Essa falta de compatibilidade faz com que o trabalho em equipe entre humanos e IA seja frequentemente deficiente”. E, às vezes, fracassa completamente.
Ao analisar as falhas da IA, as empresas as atribuem a dois problemas principais: ou a tecnologia não é suficientemente potente, ou é potente demais para gerar confiança. No entanto, Yan sugere uma razão diferente: as máquinas e as pessoas não estão bem preparadas para trabalhar juntas. “As falhas da IA ocorrem porque humanos e máquinas não estão alinhados em sua compreensão das tarefas, dos papéis e das responsabilidades.”
Ao introduzir a IA no ambiente de trabalho, as empresas tendem a dividir proativamente as tarefas entre humanos e IA, observa Yan. Isso só funciona se as tarefas forem estáveis e previsíveis, e não mudarem com o tempo. Mas isso não se aplica à maioria dos ambientes de trabalho.
Yan dá como exemplo os algoritmos de negociação de alta frequência, nos quais a IA é usada para monitorar rapidamente o mercado, detectando tendências e oportunidades. No entanto, certos eventos inesperados, como uma queda repentina do mercado, mudanças importantes nas políticas ou a publicação de dados de inflação, podem distorcer a compreensão que a IA tem do mercado. “Os algoritmos são treinados com regras pré-estabelecidas, por isso a IA não foi realmente projetada para compreender esse tipo de evento, e estes podem alterar todo o mercado e até mesmo provocar colapsos”, afirma.
Yan argumenta que colaborações eficazes entre humanos e IA deveriam ser estruturadas de maneira diferente. Elas deveriam se basear em um processo denominado *alinhamento cognitivo híbrido*: o desenvolvimento gradual de expectativas compartilhadas sobre a finalidade da IA, seu uso e quando o julgamento humano deve prevalecer. “Esse alinhamento não ocorre automaticamente ao implementar um sistema”, argumenta Yan. “Em vez disso, surge com o tempo, à medida que as pessoas aprendem como a IA se comporta, adaptam sua interação com ela e recalibram sua confiança com base na experiência.”
Por exemplo, a IA é usada atualmente na área médica para analisar radiografias ou tomografias computadorizadas. Treinada com milhões de imagens, ela costuma ser mais eficaz na identificação de câncer ou outros problemas que um médico poderia deixar passar. No entanto, ela desconhece o histórico médico de cada paciente ou como ele responde aos medicamentos; portanto, sem a intervenção e supervisão humanas, a análise não será tão precisa.
Da mesma forma, na área de atendimento ao cliente, a IA é treinada com milhares de interações anteriores e pode pesquisar documentos internos da empresa sobre suas políticas em velocidade recorde, mas pode não compreender o problema ou as necessidades desse cliente em particular. Sem capacitar a equipe sobre como usar a IA corretamente, muitos desses esforços podem não surtir bons resultados.
Dessa forma, Yan defende que as empresas deveriam se concentrar mais em como as tarefas e funções são divididas entre pessoas e máquinas, e como isso pode mudar com o tempo. Ou seja, o treinamento que enfatize como usar a IA e o tempo para que as equipes se adaptem são essenciais. Por isso, “tratar a IA como uma solução ‘plug-and-play’ costuma ser contraproducente; tratá-la como um novo colaborador traz melhores resultados. Para os executivos, essas implicações são imediatas”, observa.
Os desenvolvedores de IA também podem aprender com este artigo. As conclusões do estudo destacam a importância de projetar não apenas o desempenho, mas também a colaboração. “Os sistemas devem comunicar claramente suas capacidades e limitações, apoiar a aprendizagem do usuário ao longo do tempo e ajudá-lo a estabelecer parcerias sólidas com eles”, conclui.
"Em última análise, a promessa da IA não reside em tornar as máquinas mais inteligentes isoladamente, mas em melhorar a colaboração entre humanos e IA. O alinhamento, e não a inteligência pura, é o que transforma a IA de uma fonte de frustração em uma fonte de valor".
Esta notícia foi traduzida por um tradutor automático