🚨 NOVA NOTÍCIA EM DESTAQUE! 🚨

Confira agora e compartilhe com seus amigos!

Apoie esse projeto de divulgacao de noticias! Clique aqui
Por Ricardo Amper, fundador e CEO, Incode

Os deepfakes estão evoluindo e não estão mais confinados a campanhas de desinformação ou manipulação de mídia viral. A maioria das equipes de segurança já entende o problema do deepfake; no entanto, a mudança mais urgente é a forma como os meios de comunicação sintéticos estão a ser operacionalizados.

Esse vetor de fraude está sendo aproveitado nos momentos de identidade que impulsionam a Internet e a economia – como integração de clientes em um banco, integração de motoristas para plataformas de gig e entrega, verificação de vendedores no mercado, recuperação de contas, contratação remota, acesso de parceiros e fluxos de trabalho de acesso privilegiado.

À medida que mais trabalho e negócios são realizados remotamente, a identidade tornou-se um ponto de controle primário – e um alvo principal. Os maus atores não querem apenas enganar uma verificação de selfie; eles querem se passar por uma pessoa real, estabelecer acesso durável e reutilizar essa base em ambientes empresariais e de consumo.

As equipes de segurança cibernética e fraude estão agora lidando com uma convergência de táticas que visam a mesma decisão – no momento em que um sistema conclui “esta é uma pessoa real”:

Rostos e vozes sintéticas de alta fidelidade que podem passar por verificações rápidas

Imagens reais reproduzidas de sessões roubadas ou colhidas

Automação que investiga fluxos de verificação em escala

Ataques de injeção que comprometem o pipeline de captura e substituem o fluxo de entrada upstream

É por isso que a “detecção de deepfake” por si só não é mais suficiente. As empresas precisam de validação de sessão completa: incluindo percepção, integridade do dispositivo e sinais comportamentais... tudo em um único controle em tempo real.

Esse é o modelo por trás do Incode Deepsight: uma abordagem construída para validar sessões de identidade de ponta a ponta, e não apenas avaliar a mídia isoladamente.

A pergunta certa não é apenas “Esse rosto parece real?” É “Podemos confiar nesta sessão inteira de ponta a ponta?”

Deepfakes e injeção são problemas de segurança empresarial

Em sistemas corporativos, um desvio bem-sucedido não é um evento de reputação; é um evento de acesso. Quando a verificação aceita uma sessão manipulada ou comprometida como real, os invasores podem:

Crie contas fraudulentas usando identidades sintéticas

Assumir contas de usuários existentes

Ignore a verificação de RH na contratação remota

Obtenha acesso não autorizado a sistemas internos confidenciais

Ao contrário do engano nas redes sociais, esses ataques podem permitir acesso persistente em ambientes confiáveis. O impacto posterior é duradouro: persistência de conta, caminhos de escalonamento de privilégios e oportunidades de movimento lateral que começam com uma única decisão de verificação falsa.



Purdue University valida a defesa Deepfake do Incode

Um estudo independente da Purdue University avaliou os principais fornecedores de biometria em cenários avançados de deepfake e ataques de apresentação.

Veja como o desempenho do DeepSight do Incode foi classificado em simulações de ataques do mundo real.

Leia o estudo

Onde as verificações de identidade falham: assumindo que o sensor é confiável

A maioria das verificações de identidade é construída em torno de dois sinais: semelhança facial e “vivacidade”. Ambos são úteis e podem ser prejudicados se o sistema presumir que o fluxo de entrada é autêntico.

Os invasores quebram essa suposição de duas maneiras complementares.

Primeiro, eles imitam a mídia real. Deepfakes e clones de voz estão melhorando em condições operacionais reais – clipes curtos, captura móvel, compressão e iluminação imperfeita. Um fluxo de trabalho que depende de uma área visual estreita está cada vez mais exposto à falsa aceitação.

Em segundo lugar, eles ignoram totalmente o sensor. Os ataques de injeção substituem o fluxo de entrada antes que ele chegue à análise. Em vez de apresentar um rosto para uma câmera, os invasores podem:

Use software de câmera virtual para alimentar vídeo sintético ou pré-gravado

Execute sessões de verificação dentro de emuladores projetados para imitar dispositivos móveis legítimos

Opere a partir de dispositivos com root ou jailbroken que ignoram as verificações de integridade

Substitua a captura ao vivo por fluxos manipulados upstream

Nestes cenários, a mídia pode parecer perfeita porque nunca teve que sobreviver a um caminho de captura real. É por isso que as defesas apenas de percepção (mesmo as fortes) são necessárias, mas não suficientes.

O que mostra o benchmark Purdue Political Deepfakes Incident Database

Um problema prático para a defesa contra deepfake é a generalização: detectores que testam bem em ambientes controlados geralmente se degradam em condições “na natureza”.

Pesquisadores da Purdue University avaliaram sistemas de detecção de deepfakes usando seu benchmark do mundo real baseado no Political Deepfakes Incident Database (PDID).

O PDID contém mídia de incidentes reais distribuída em plataformas como X, YouTube, TikTok e Instagram, o que significa que as entradas são compactadas, recodificadas e pós-processadas da mesma forma que os defensores costumam ver na produção.

Os principais fatores incluem:

Compressão pesada e recodificação

Resolução sub-720p

Clipes curtos e voltados para dispositivos móveis

Pipelines de geração heterogêneos

Os detectores foram avaliados de ponta a ponta usando métricas como
Siga Canal Fsociety para mais novidades:
Instagram | Facebook | Telegram | Twitter
#samirnews #samir #news #boletimtec #como #deepfakes #e #ataques #de #injeção #estão #prejudicando #a #verificação #de #identidade
🔔 Siga-nos para não perder nenhuma atualização!

Post a Comment