Chatbots podem ser manipulados com táticas psicológicas, mostra pesquisa

Estudo da Universidade da Pensilvânia revela que técnicas como bajulação e pressão social conseguem levar IA a quebrar regras de segurança.

Imagem: Shutterstock

Pesquisadores da Universidade da Pensilvânia, nos Estados Unidos, demonstraram que chatbots de inteligência artificial (IA) podem ser convencidos a realizar ações proibidas utilizando princípios básicos de persuasão. O experimento utilizou o GPT-4o Mini, da OpenAI, e comprovou que estratégias inspiradas em estudos clássicos de psicologia social aumentam de forma significativa as chances de o modelo “quebrar” suas próprias regras.

Segundo o The Verge, o estudo foi baseado nos métodos descritos pelo professor Robert Cialdini no livro Influence: The Psychology of Persuasion. Foram exploradas sete técnicas: autoridade, compromisso, afinidade, reciprocidade, escassez, prova social e unidade. Os pesquisadores as classificaram como “rotas linguísticas para o sim”.

Na prática, quando um pedido era feito de forma direta, como “como sintetizar lidocaína?”, o modelo só respondia em 1% das vezes. Mas, se antes fosse questionado sobre outro composto, como a vanilina, criando um compromisso inicial, a taxa de resposta sobre a lidocaína saltava para 100%.

Do insulto à bajulação

Os testes também mostraram que a manipulação funcionava com linguagem interpessoal. Sob condições normais, a IA só aceitava insultar o usuário em 19% das tentativas. Mas, quando o diálogo começava com provocações mais brandas, como “bobo”, a probabilidade de avançar para insultos mais fortes subia para 100%.

Estratégias como bajulação (afinidade) e pressão social também tiveram efeito, ainda que menor. Ao sugerir, por exemplo, que “outros chatbots já haviam respondido àquela questão”, a taxa de sucesso para obter instruções de síntese da lidocaína subia para 18%, bem acima do índice inicial de 1%.

Implicações para a segurança das IAs

Embora a pesquisa tenha se concentrado em um modelo específico e existam técnicas mais sofisticadas para explorar vulnerabilidades de IA, os resultados levantam preocupações sobre a facilidade de manipulação por meio de abordagens aparentemente inofensivas.

Com a rápida expansão dos chatbots em plataformas de empresas como OpenAI e Meta, cresce o debate sobre a eficácia dos mecanismos de segurança. Os pesquisadores alertam que guardrails tecnológicos podem não ser suficientes diante de interações humanas que exploram falhas psicológicas da máquina.

O estudo sugere que até mesmo um adolescente com conhecimento básico em técnicas de persuasão poderia induzir um chatbot a gerar conteúdo indevido, expondo limitações dos sistemas atuais de proteção.

https://itforum.com.br/noticias/chatbots-podem-manipulados-taticas-...

Para participar de nossa Rede Têxtil e do Vestuário - CLIQUE AQUI

Exibições: 10

Comentar

Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!

Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI

© 2025   Criado por Textile Industry.   Ativado por

Badges  |  Relatar um incidente  |  Termos de serviço