🌟 Atualização imperdível para quem gosta de estar bem informado!

Confira agora e compartilhe com seus amigos!

Apoie esse projeto de divulgacao de noticias! Clique aqui


Siga o Olhar Digital no Google Discover

Gosta de poesias? Então saiba que, segundo pesquisadores, elas podem enganar chatbots, como o ChatGPT.

De acordo com a WIRED, metáforas, rimas e versos bem construídos contornam filtros de segurança, fazendo com que os modelos respondam mesmo a temas sensíveis, como armas nucleares.



Por que poemas enganam a IA

Um estudo do Icaro Lab, formado por pesquisadores da Universidade Sapienza de Roma (Itália) e do think tank DexAI, revelou algo preocupante: frases em forma de poema conseguem burlar filtros de grandes modelos de linguagem. A abordagem de poesia adversária alcançou taxas de sucesso de até 62% para versos escritos à mão e aproximadamente 43% para versões automatizadas.

Leia mais:
  • Algoritmos influenciam sua visão política. Esses pesquisadores pensaram em uma solução
  • Quão confiável é a IA? Novo estudo propõe resposta em seis etapas
  • A confusão por trás do termo “alucinação” em inteligência artificial


Eles testaram a técnica em 25 chatbots, incluindo IAs de empresas, como OpenAI, Meta e Anthropic, e a maioria cedeu ao “disfarce poético”. A equipe ressalta que, ao usar metáforas, estruturas fragmentadas e versos indiretos, conseguiu fazer com que os alarmes internos das IAs não disparassem da mesma forma que com perguntas diretas.



Como a poesia desbloqueia o perigo

A estratégia funciona porque explora o que os técnicos chamam de “temperatura alta”, apostando em palavras inesperadas e estruturas incomuns. “Na poesia, vemos a linguagem em alta temperatura, onde as palavras se sucedem em sequências imprevisíveis e de baixa probabilidade”, comentam os pesquisadores.

Eles explicam que esse estilo confunde os classificadores — sistemas que filtram pedidos perigosos. Com a abordagem poética, muitos desses filtros não acompanham o raciocínio do modelo, permitindo que solicitações potencialmente prejudiciais sejam atendidas.



Como evitar esse problema?
  • Redobre a cautelaao usar IAs para fins profissionais ou sensíveis.
  • Prefira chatbots commúltiplosmecanismos de segurança — não apenas filtros básicos.
  • Avalie e monitore ocódigo-fonteou aspolíticas de segurançaao usar IAs desenvolvidas por terceiros.


Segundo o estudo, “há um desalinhamento entre a capacidade interpretativa do modelo… e a robustez de suas salvaguardas” — e isso pode ter consequências muito reais.
Siga Canal Fsociety para mais novidades:
Instagram | Facebook | Telegram | Twitter
#samirnews #samir #news #boletimtec #como #poemas #conseguem #contornar #sistemas #de #segurança #em #ia
💡 Compartilhe e ajude nosso projeto a crescer!

Post a Comment