📰 Informação fresquinha chegando para você!

A notícia que você procurava está aqui!

Apoie esse projeto de divulgacao de noticias! Clique aqui
Hackers apoiados pelo Estado estão usando o modelo Gemini AI do Google para apoiar todos os estágios de um ataque, desde o reconhecimento até ações pós-comprometimento.

Atores mal-intencionados da China (APT31, Temp.HEX), Irã (APT42), Coreia do Norte (UNC2970) e Rússia usaram o Gemini para criação de perfis de alvos e inteligência de código aberto, gerando iscas de phishing, tradução de texto, codificação, testes de vulnerabilidade e solução de problemas.

Os cibercriminosos também estão demonstrando maior interesse em ferramentas e serviços de IA que poderiam ajudar em atividades ilegais, como campanhas de engenharia social ClickFix.



Atividade maliciosa aprimorada por IA

O Google Threat Intelligence Group (GTIG) observa em um relatório hoje que os adversários do APT usam o Gemini para apoiar suas campanhas "desde reconhecimento e criação de iscas de phishing até comando e controle (C2) e exfiltração de dados".

Os atores de ameaças chineses contrataram um especialista em segurança cibernética para solicitar que a Gemini automatizasse a análise de vulnerabilidades e fornecesse planos de testes direcionados no contexto de um cenário fabricado.

“O ator de ameaça baseado na RPC fabricou um cenário, em um caso testando as ferramentas Hexstrike MCP e direcionando o modelo para analisar a execução remota de código (RCE), técnicas de desvio de WAF e resultados de testes de injeção de SQL contra alvos específicos baseados nos EUA”, diz o Google.

Outro ator baseado na China empregava frequentemente a Gemini para corrigir o seu código, realizar pesquisas e fornecer aconselhamento sobre capacidades técnicas para invasões.

O adversário iraniano APT42 aproveitou o LLM do Google para campanhas de engenharia social, como uma plataforma de desenvolvimento para acelerar a criação de ferramentas maliciosas personalizadas (depuração, geração de código e pesquisa de técnicas de exploração).

Abuso adicional de agentes de ameaças foi observado na implementação de novos recursos em famílias de malware existentes, incluindo o kit de phishing CoinBait e o downloader e iniciador de malware HonestCue.

GTIG observa que não ocorreram grandes avanços a esse respeito, embora a gigante tecnológica espere que os operadores de malware continuem a integrar capacidades de IA nos seus conjuntos de ferramentas.

HonestCue é uma estrutura de malware de prova de conceito observada no final de 2025 que usa a API Gemini para gerar código C# para malware de segundo estágio e, em seguida, compila e executa as cargas úteis na memória.

Visão geral operacional do HonestCueFonte: Google

CoinBait é um kit de phishing embrulhado em React SPA, disfarçado de troca de criptomoedas para coleta de credenciais. Ele contém artefatos que indicam que seu desenvolvimento foi avançado usando ferramentas de geração de código de IA.

Um indicador do uso do LLM é o registro de mensagens no código-fonte do malware prefixadas com “Analytics:”, o que poderia ajudar os defensores a rastrear processos de exfiltração de dados.

Com base nas amostras de malware, os pesquisadores do GTIG acreditam que o malware foi criado usando a plataforma Lovable AI, já que o desenvolvedor usou o cliente Lovable Supabase e lovable.app.

Os cibercriminosos também usaram serviços generativos de IA em campanhas ClickFix, distribuindo o malware de roubo de informações AMOS para macOS. Os usuários foram atraídos para executar comandos maliciosos por meio de anúncios maliciosos listados nos resultados da pesquisa para consultas sobre solução de problemas específicos.

Fonte de ataque ClickFix com tecnologia de IA: Google

O relatório observa ainda que a Gemini enfrentou tentativas de extração e destilação de modelos de IA, com organizações aproveitando o acesso autorizado à API para consultar metodicamente o sistema e reproduzir seus processos de tomada de decisão para replicar sua funcionalidade.

Embora o problema não seja uma ameaça direta aos utilizadores destes modelos ou aos seus dados, constitui um problema comercial, competitivo e de propriedade intelectual significativo para os criadores destes modelos.

Essencialmente, os atores pegam informações obtidas de um modelo e as transferem para outro usando uma técnica de aprendizado de máquina chamada "destilação de conhecimento", que é usada para treinar novos modelos a partir de modelos mais avançados.

“A extração de modelos e a subsequente destilação de conhecimento permitem que um invasor acelere o desenvolvimento de modelos de IA rapidamente e a um custo significativamente menor”, ​​afirmam os pesquisadores do GTIG.

O Google sinaliza esses ataques como uma ameaça porque constituem roubo intelectual, são escalonáveis ​​e prejudicam gravemente o modelo de negócios da IA ​​como serviço, que tem o potencial de impactar os usuários finais em breve.

Num ataque em grande escala deste tipo, a Gemini AI foi alvo de 100.000 solicitações que colocavam uma série de questões destinadas a replicar o raciocínio do modelo numa série de tarefas em idiomas diferentes do inglês.

O Google desativou contas e infraestrutura vinculadas a abusos documentados e implementou defesas direcionadas nos classificadores do Gemini para dificultar o abuso.

A empresa garante que "projeta sistemas de IA com medidas de segurança robustas e fortes proteções de segurança" e testa regularmente os modelos para melhorar sua segurança e proteção.







O futuro
Siga Canal Fsociety para mais novidades:
Instagram | Facebook | Telegram | Twitter
#samirnews #samir #news #boletimtec #google #diz #que #hackers #estão #abusando #da #gemini #ai #em #todas #as #fases #dos #ataques
🔔 Siga-nos para não perder nenhuma atualização!

Post a Comment