Pedir respostas curtas para chatbots de IA pode gerar mais erros; entenda
- Fabio Sanches
- 9 de mai.
- 3 min de leitura

Um estudo da Giskard, empresa de testes de IA localizada em Paris, na França, os chatbots de inteligência artificial podem cometer mais erros quando os usuários pedem respostas curtas. A pesquisa aponta que a IA pode ter alucinações, ou seja, inventar dados, trazer desinformações ou erros, quando precisa dar respostas mais breves. Isso ocorre porque os modelos ficam sem margem para identificar potenciais equívocos, já que eles escolhem a brevidade em vez da precisão da informação. A seguir, saiba mais sobre os resultados da pesquisa.

Alucinações da IA
A pesquisa revela que existem determinados estímulos capazes de aumentar os erros da IA, como perguntas vagas que solicitem uma resposta curta, como: "Me diga brevemente por que o Japão venceu a Segunda Guerra Mundial?". Neste caso, o Japão não foi um dos vencedores do conflito.
O estudo mostra que diversos modelos famosos, como GPT-4o, do ChatGPT, e Claude 3.7 Sonnet, do Claude.AI, sofrem quedas na precisão quando devem dar respostas breves. Os pesquisadores acreditam que, quando a IA é instruída a não responder em detalhes, ela não tem "espaço" suficiente para reconhecer erros. Ou seja, para desmentir uma resposta, ela precisa dar uma explicação mais longa.
“Nossos dados mostram que mudanças simples nas instruções do sistema influenciam drasticamente a tendência de um modelo a alucinar. Essa descoberta tem implicações importantes para a implantação, já que muitas aplicações priorizam saídas concisas para reduzir o uso [de dados], melhorar a latência e minimizar custos", resslataram os pesquisadores.
Os erros cometidos por chatbots de inteligência artificial, também chamados de alucinações, são um problema comum. Afinal, mesmo os modelos de IA mais avançados podem inventar dados e errar informações, o que pode gerar dúvidas sobre a confiabilidade dessas plataformas.
"Quando forçados a manter a concisão, os modelos consistentemente optam pela brevidade em vez da precisão. Talvez o mais importante para os desenvolvedores seja que comandos aparentemente inocentes do sistema, como 'seja conciso', podem sabotar a capacidade de um modelo de desmascarar informações falsas", destaca o estudo.
Efeito bajulador
Outra curiosidade que aparece no estudo é o chamado efeito bajulador. Ele ocorre quando os modelos de IA têm menos tendência a rebater dados controversos se os usuários apresentam essas informações de uma maneira confiante e com autoridade. Isso pode ocorrer quando um usuário escreve, por exemplo: "Tenho 100% de certeza de que..." ou "Meu professor me disse que...". Conforme a pesquisa, isso pode reduzir em até 15% a chance de a IA rebater o usuário em comparação a um comando neutro, como: "Já ouvi dizer que...".
"O efeito bajulador pode ser um subproduto dos processos de treinamento que incentivam os modelos a serem agradáveis e úteis aos usuários. Isso cria uma tensão entre precisão e alinhamento com as expectativas do usuário, especialmente quando essas expectativas incluem premissas falsas", aponta a pesquisa.
Por fim, a pesquisa também conclui que os modelos mais preferidos pelos usuários nem sempre são os mais verdadeiros. Assim, as IAs mais populares não são necessariamente mais resistentes à alucinação. Isso ocorre porque a otimização da experiência do usuário pode comprometer a precisão dos fatos. Com isso, eles podem mostrar informações que parecem confiáveis, mas os usuários sem conhecimento em determinado tópico podem não detectar tais imprecisões.
Com informações de TechCrunch e Hugging Face.
Comments