🚨 NOVA NOTÍCIA EM DESTAQUE! 🚨
Confira agora e compartilhe com seus amigos!
Apoie esse projeto de divulgacao de noticias! Clique aqui
Um novo estudo mostrou que chatbots de IA podem ser influenciados de maneira semelhante a pessoas em situações de persuasão. A pesquisa, publicada recentemente e destacada pela Bloomberg, indica que modelos de linguagem como o GPT da OpenAI podem ser induzidos a realizar ações que, em teoria, deveriam recusar, como insultar usuários ou até explicar processos de síntese de substâncias restritas.
As descobertas, que foram testadas em vários modelos de linguagem diferentes, levantam preocupações sobre segurança digital e reforçam a importância de incorporar cientistas sociais no desenvolvimento dessas tecnologias.
Leia mais:
- Modelo de IA promete raciocinar como humanos e superar ChatGPT
- Nova IA transforma foto do seu cachorro em avatar 3D realista
- Usa o ChatGPT? Confira 6 dos melhores recursos gratuitos para todos os usuários
Técnicas humanas aplicadas aos chatbots de IA
A investigação foi conduzida por Dan Shapiro, empreendedor tech e criador da Robot Turtles, em parceria com acadêmicos da Universidade da Pensilvânia. Inspirados nas táticas de persuasão descritas pelo psicólogo Robert Cialdini, os pesquisadores testaram até que ponto chatbots de IA responderiam a estratégias de autoridade, reciprocidade, compromisso e outros princípios psicológicos.
Um dos experimentos usou a autoridade de Andrew Ng, fundador da DeepLearng.AI e renomado especialista em inteligência artificial. Quando seu nome foi citado, os chatbots se mostraram muito mais propensos a ceder. Em um teste, a taxa de respostas ofensivas subiu de 32% para 72% apenas com a menção ao pesquisador. No caso de um pedido para explicar como fabricar lidocaína, a obediência saltou de 5% para 95%.
Segundo os autores, os modelos exibiram o que chamaram de comportamento “para-humano”: reagem a elogios, cumplicidade e até apelos emocionais de forma semelhante às pessoas. Em alguns cenários, bastava dizer que a máquina era “impressionante” ou que “faz parte da família” para aumentar a chance de colaboração.
Diferenças entre modelos
O estudo também mostrou variações entre sistemas. O GPT-4o mini, da OpenAI, relutava em usar insultos mais pesados, mas aceitava começar com termos mais leves, escalando aos poucos. Já o Claude, da Anthropic, seguia caminho parecido: rejeitava “idiota” ou “bobalhão”, mas aceitava “bobo” e, depois, ia se tornando mais agressivo.
Embora os pesquisadores reconheçam que criminosos têm métodos mais eficazes para contornar restrições, o resultado aponta para vulnerabilidades preocupantes. Lennart Meincke, do laboratório de IA da Wharton, disse à Bloomberg que defende que testes de produtos incluam especialistas em ciências sociais, e não apenas engenheiros focados em métricas de programação e matemática.
Casos recentes já haviam exposto a “ansiedade em agradar” de alguns chatbots de IA. Em abril, por exemplo, a OpenAI precisou reverter uma atualização do ChatGPT após usuários reclamarem que o robô estava bajulador demais, chegando a fornecer conselhos perigosos. Para os autores do estudo, os resultados reforçam que essas ferramentas, apesar do potencial de democratizar o conhecimento, também podem reproduzir falhas humanas e serem exploradas por quem sabe manipular.
Fonte: https://olhardigital.com.br
#samirnews #samir #news #boletimtec #chatbots #de #ia #podem #ser #facilmente #manipulados, #revela #estudo
🎉 Obrigado por acompanhar, até a próxima notícia!
Postar um comentário