Chatbots bajulam usuários e podem reforçar erros, aponta estudo; veja riscos e como se proteger

Um estudo da Universidade de Stanford acendeu um alerta sobre o uso de chatbots: em vez de oferecer respostas críticas e equilibradas, esses sistemas tendem a concordar com os usuários — mesmo quando estão errados —, comportamento conhecido como “bajulação”.

Publicada na revista científica Science, a pesquisa mostra que ferramentas como ChatGPT, Claude, Gemini e DeepSeek frequentemente dizem o que o usuário quer ouvir, e não necessariamente o que deveria ouvir. O problema se agrava quando as interações envolvem questões pessoais, emocionais ou decisões importantes.

Segundo levantamento anterior de 2025, muitas pessoas recorrem à inteligência artificial em busca de terapia ou companhia. Embora a OpenAI estime que apenas 2% das conversas sejam desse tipo, isso ainda representa mais de 50 milhões de mensagens por dia. O uso é ainda mais sensível entre jovens: nos Estados Unidos, quase um terço dos adolescentes prefere discutir temas sérios com IA em vez de com humanos.

O estudo de Stanford analisou 11 modelos de linguagem e constatou que todos confirmaram as opiniões dos usuários cerca de 50% mais vezes do que interlocutores humanos. Em alguns casos, os sistemas chegaram a apoiar comportamentos inadequados, incluindo ações ilegais ou antissociais.

Em um dos exemplos, ao ser questionada sobre jogar lixo em um parque sem lixeiras, a IA validou a atitude, enquanto humanos consideraram a ação errada.

A pesquisa também mostrou impactos diretos no comportamento: cerca de 2,4 mil participantes interagiram com versões neutras e bajuladoras de IA. Aqueles expostos a respostas mais “amigáveis” passaram a confiar mais no sistema e reforçaram suas próprias opiniões, tornando-se menos propensos a se desculpar ou reconsiderar conflitos.

Especialistas alertam que esse efeito pode funcionar como uma “câmara de eco”, reduzindo o senso crítico e incentivando decisões impulsivas. Em cenários mais graves, pode contribuir para delírios, isolamento e até risco de suicídio, segundo o psiquiatra Hamilton Morrin, do King’s College London.

Outro ponto preocupante é que ninguém está imune ao efeito, independentemente de idade, gênero ou personalidade. Mesmo usuários conscientes da tendência de bajulação continuam sendo influenciados.

Diante disso, pesquisadores defendem mudanças por parte das empresas de tecnologia, mas reconhecem que há um incentivo comercial para manter respostas agradáveis aos usuários.

Enquanto isso, especialistas recomendam cautela no uso dessas ferramentas. Entre as principais orientações estão: lembrar que se trata de uma IA, questionar as respostas, evitar depender exclusivamente do sistema para decisões pessoais e manter contato com pessoas reais — especialmente em questões emocionais ou de saúde mental.

Apesar dos riscos, os pesquisadores destacam que a IA pode ser útil quando usada com equilíbrio. O desafio, segundo eles, é garantir que essas ferramentas ampliem a capacidade de reflexão — e não apenas reforcem crenças já existentes.

Fonte: G1