🌟 Atualização imperdÃvel para quem gosta de estar bem informado!
Não deixe essa passar: clique e saiba tudo!
Apoie esse projeto de divulgacao de noticias! Clique aqui
A realidade atual da “IA em todos os lugares” está integrada nos fluxos de trabalho diários em toda a empresa, incorporada em plataformas SaaS, navegadores, copilotos, extensões e um universo em rápida expansão de ferramentas paralelas que aparecem mais rápido do que as equipes de segurança conseguem rastrear. No entanto, a maioria das organizações ainda depende de controles legados que operam longe de onde as interações de IA realmente ocorrem. O resultado é uma lacuna de governação cada vez maior, onde a utilização da IA cresce exponencialmente, mas a visibilidade e o controlo não.
Com a IA se tornando fundamental para a produtividade, as empresas enfrentam um novo desafio: permitir que os negócios inovem enquanto mantêm a governança, a conformidade e a segurança.
Um novo Guia do Comprador para Controle de Uso de IA argumenta que as empresas não entenderam fundamentalmente onde reside o risco de IA. Descobrir o uso da IA e eliminar a IA 'sombra' também será discutido em um próximo almoço virtual e aprendizado.
A verdade surpreendente é que a segurança da IA não é um problema de dados ou de aplicativos. É um problema de interação. E as ferramentas legadas não foram criadas para isso.
IA em todos os lugares, visibilidade em lugar nenhum
Se você perguntar a um lÃder de segurança tÃpico quantas ferramentas de IA sua força de trabalho usa, você obterá uma resposta. Pergunte como eles sabem e a sala fica em silêncio.
O guia revela uma verdade incômoda: a adoção da IA ultrapassou a visibilidade e o controle da segurança da IA em anos, não em meses.
A IA está incorporada em plataformas SaaS, suÃtes de produtividade, clientes de e-mail, CRMs, navegadores, extensões e até mesmo em projetos de funcionários. Os usuários alternam entre identidades de IA corporativas e pessoais, geralmente na mesma sessão. Os fluxos de trabalho de agente encadeiam ações em diversas ferramentas sem atribuição clara.
E, no entanto, a empresa média não tem um inventário confiável de uso de IA, muito menos controle sobre como os prompts, uploads, identidades e ações automatizadas fluem pelo ambiente.
Este não é um problema de ferramentas, é um problema arquitetônico. Os controles de segurança tradicionais não operam no ponto onde realmente ocorrem as interações de IA. Essa lacuna é exatamente a razão pela qual o Controle de Uso de IA surgiu como uma nova categoria construÃda especificamente para governar o comportamento da IA em tempo real.
O controle de uso de IA permite controlar as interações de IA
AUC não é um aprimoramento da segurança tradicional, mas uma camada de governança fundamentalmente diferente no ponto de interação da IA.
A AUC eficaz requer descoberta e aplicação no momento da interação, alimentada por sinais de risco contextuais, e não por listas de permissões estáticas ou fluxos de rede.
Resumindo, a AUC não responde apenas “Quais dados saÃram da ferramenta de IA?”
Ele responde "Quem está usando IA? Como? Através de qual ferramenta? Em que sessão? Com que identidade? Sob quais condições? E o que aconteceu a seguir?"
Esta mudança do controle centrado em ferramentas para uma governança centrada na interação é onde o setor de segurança precisa se atualizar.
Por que a maioria dos “controles” de IA não são realmente controles
As equipes de segurança caem consistentemente nas mesmas armadilhas ao tentar proteger o uso da IA:
Tratar AUC como um recurso de caixa de seleção dentro de CASB ou SSE
Confiar puramente na visibilidade da rede (que perde a maioria das interações de IA)
Superindexação na detecção sem aplicação
Ignorando extensões de navegador e aplicativos nativos de IA
Presumir que a prevenção contra perda de dados por si só seja suficiente
Cada um deles cria uma postura de segurança perigosamente incompleta. A indústria tem tentado adaptar controles antigos a um modelo de interação totalmente novo e isso simplesmente não funciona.
AUC existe porque nenhuma ferramenta legada foi construÃda para isso.
O controle de uso de IA é mais do que apenas visibilidade
No controle de uso de IA, a visibilidade é apenas o primeiro ponto de verificação e não o destino. Saber onde a IA está sendo usada é importante, mas a verdadeira diferenciação está em como uma solução entende, governa e controla as interações de IA no momento em que elas acontecem. Os lÃderes de segurança normalmente passam por quatro estágios:
Descoberta: identifique todos os pontos de contato de IA: aplicativos sancionados, aplicativos de desktop, copilotos, interações baseadas em navegador, extensões de IA, agentes e ferramentas de IA sombra. Muitos presumem que a descoberta define todo o escopo do risco. Na realidade, a visibilidade sem contexto de interação muitas vezes leva a percepções de risco infladas e respostas grosseiras, como proibições amplas de IA. Consciência de interação: o risco de IA ocorre em tempo real enquanto um prompt está sendo digitado, um arquivo está sendo resumido automaticamente ou um agente executa um fluxo de trabalho automatizado. É necessário ir além de “quais ferramentas estão sendo usadas” para “o que os usuários estão realmente fazendo”. Nem toda interação de IA é arriscada e a maioria é benigna. Compreender prompts, ações, uploads e resultados em tempo real é o que separa o uso inofensivo da verdadeira exposição. Identidade e contexto: as interações de IA geralmente ignoram as estruturas de identidade tradicionais, acontecendo por meio de contas pessoais de IA, sessões de navegador não autenticadas ou extensões não gerenciadas. Como as ferramentas legadas assumem que identidade é igual a controle, elas perdem a maior parte dessa atividade. AUC moderna deve vincular interações
Com a IA se tornando fundamental para a produtividade, as empresas enfrentam um novo desafio: permitir que os negócios inovem enquanto mantêm a governança, a conformidade e a segurança.
Um novo Guia do Comprador para Controle de Uso de IA argumenta que as empresas não entenderam fundamentalmente onde reside o risco de IA. Descobrir o uso da IA e eliminar a IA 'sombra' também será discutido em um próximo almoço virtual e aprendizado.
A verdade surpreendente é que a segurança da IA não é um problema de dados ou de aplicativos. É um problema de interação. E as ferramentas legadas não foram criadas para isso.
IA em todos os lugares, visibilidade em lugar nenhum
Se você perguntar a um lÃder de segurança tÃpico quantas ferramentas de IA sua força de trabalho usa, você obterá uma resposta. Pergunte como eles sabem e a sala fica em silêncio.
O guia revela uma verdade incômoda: a adoção da IA ultrapassou a visibilidade e o controle da segurança da IA em anos, não em meses.
A IA está incorporada em plataformas SaaS, suÃtes de produtividade, clientes de e-mail, CRMs, navegadores, extensões e até mesmo em projetos de funcionários. Os usuários alternam entre identidades de IA corporativas e pessoais, geralmente na mesma sessão. Os fluxos de trabalho de agente encadeiam ações em diversas ferramentas sem atribuição clara.
E, no entanto, a empresa média não tem um inventário confiável de uso de IA, muito menos controle sobre como os prompts, uploads, identidades e ações automatizadas fluem pelo ambiente.
Este não é um problema de ferramentas, é um problema arquitetônico. Os controles de segurança tradicionais não operam no ponto onde realmente ocorrem as interações de IA. Essa lacuna é exatamente a razão pela qual o Controle de Uso de IA surgiu como uma nova categoria construÃda especificamente para governar o comportamento da IA em tempo real.
O controle de uso de IA permite controlar as interações de IA
AUC não é um aprimoramento da segurança tradicional, mas uma camada de governança fundamentalmente diferente no ponto de interação da IA.
A AUC eficaz requer descoberta e aplicação no momento da interação, alimentada por sinais de risco contextuais, e não por listas de permissões estáticas ou fluxos de rede.
Resumindo, a AUC não responde apenas “Quais dados saÃram da ferramenta de IA?”
Ele responde "Quem está usando IA? Como? Através de qual ferramenta? Em que sessão? Com que identidade? Sob quais condições? E o que aconteceu a seguir?"
Esta mudança do controle centrado em ferramentas para uma governança centrada na interação é onde o setor de segurança precisa se atualizar.
Por que a maioria dos “controles” de IA não são realmente controles
As equipes de segurança caem consistentemente nas mesmas armadilhas ao tentar proteger o uso da IA:
Tratar AUC como um recurso de caixa de seleção dentro de CASB ou SSE
Confiar puramente na visibilidade da rede (que perde a maioria das interações de IA)
Superindexação na detecção sem aplicação
Ignorando extensões de navegador e aplicativos nativos de IA
Presumir que a prevenção contra perda de dados por si só seja suficiente
Cada um deles cria uma postura de segurança perigosamente incompleta. A indústria tem tentado adaptar controles antigos a um modelo de interação totalmente novo e isso simplesmente não funciona.
AUC existe porque nenhuma ferramenta legada foi construÃda para isso.
O controle de uso de IA é mais do que apenas visibilidade
No controle de uso de IA, a visibilidade é apenas o primeiro ponto de verificação e não o destino. Saber onde a IA está sendo usada é importante, mas a verdadeira diferenciação está em como uma solução entende, governa e controla as interações de IA no momento em que elas acontecem. Os lÃderes de segurança normalmente passam por quatro estágios:
Descoberta: identifique todos os pontos de contato de IA: aplicativos sancionados, aplicativos de desktop, copilotos, interações baseadas em navegador, extensões de IA, agentes e ferramentas de IA sombra. Muitos presumem que a descoberta define todo o escopo do risco. Na realidade, a visibilidade sem contexto de interação muitas vezes leva a percepções de risco infladas e respostas grosseiras, como proibições amplas de IA. Consciência de interação: o risco de IA ocorre em tempo real enquanto um prompt está sendo digitado, um arquivo está sendo resumido automaticamente ou um agente executa um fluxo de trabalho automatizado. É necessário ir além de “quais ferramentas estão sendo usadas” para “o que os usuários estão realmente fazendo”. Nem toda interação de IA é arriscada e a maioria é benigna. Compreender prompts, ações, uploads e resultados em tempo real é o que separa o uso inofensivo da verdadeira exposição. Identidade e contexto: as interações de IA geralmente ignoram as estruturas de identidade tradicionais, acontecendo por meio de contas pessoais de IA, sessões de navegador não autenticadas ou extensões não gerenciadas. Como as ferramentas legadas assumem que identidade é igual a controle, elas perdem a maior parte dessa atividade. AUC moderna deve vincular interações
Fonte: https://thehackernews.com
#samirnews #samir #news #boletimtec #o #guia #do #comprador #para #controle #de #uso #de #ia
💡 Compartilhe e ajude nosso projeto a crescer!
Postar um comentário