⚡ Não perca: notícia importante no ar! ⚡
Não deixe essa passar: clique e saiba tudo!
Apoie esse projeto de divulgacao de noticias! Clique aqui
À medida que as ferramentas de IA se tornam mais acessíveis, os funcionários as adotam sem aprovação formal das equipes de TI e segurança. Embora essas ferramentas possam aumentar a produtividade, automatizar tarefas ou preencher lacunas nos fluxos de trabalho existentes, elas também operam fora da visibilidade das equipes de segurança, ignorando controles e criando novos pontos cegos no que é conhecido como IA sombra. Embora semelhante ao fenômeno da Shadow IT, a Shadow AI vai além do software não aprovado, envolvendo sistemas que processam, geram e potencialmente retêm dados confidenciais. O resultado é uma categoria de risco que a maioria das organizações ainda não está preparada para controlar: exposição descontrolada de dados, superfícies de ataque ampliadas e segurança de identidade enfraquecida.
Por que a IA sombria está se espalhando tão rapidamente
A Shadow AI está se expandindo rapidamente nas organizações porque é fácil de adotar e instantaneamente útil, mas em grande parte não é regulamentada. Ao contrário do software empresarial tradicional, a maioria das ferramentas de IA exige pouca ou nenhuma configuração, permitindo que os funcionários comecem a usá-las imediatamente. De acordo com uma pesquisa da Salesforce de 2024, 55% dos funcionários relataram usar ferramentas de IA que não foram aprovadas pela organização. Como muitas organizações não possuem políticas claras de uso de IA, os funcionários devem decidir quais ferramentas usar e como usá-las por conta própria, muitas vezes sem compreender as implicações de segurança.
Os funcionários podem usar ferramentas generativas de IA, como ChatGPT ou Claude, nos fluxos de trabalho diários e, embora isso possa melhorar a produtividade, pode resultar no compartilhamento externo de dados confidenciais sem supervisão. O fato de o fornecedor de IA usar ou não esses dados para treinamento de modelo depende da plataforma e do tipo de conta, mas, em ambos os casos, os dados ultrapassaram os limites de segurança da organização.
No nível departamental, a IA sombra pode aparecer quando as equipes integram APIs de IA ou modelos de terceiros em aplicativos sem uma revisão formal de segurança. Essas integrações podem expor dados internos e introduzir novos vetores de ataque que as equipes de segurança não conseguem ver ou controlar. Em vez de tentar eliminar totalmente a IA oculta, as organizações devem gerenciar ativamente os riscos que ela cria.
Como a Shadow AI é um problema de segurança
A IA sombra é frequentemente enquadrada como uma questão de governança, mas é um problema de segurança em sua essência. Ao contrário da TI sombra tradicional, em que os funcionários adotam software não aprovado, a IA sombra envolve sistemas que processam e armazenam ativamente dados além do escopo das equipes de segurança, transformando o uso não autorizado de IA em um risco mais amplo de exposição de dados e uso indevido de acesso.
Shadow AI pode levar a vazamentos de dados não rastreáveis
Os funcionários podem compartilhar dados de clientes, informações financeiras ou documentos comerciais internos com ferramentas de IA para concluir tarefas com mais eficiência. Os desenvolvedores que solucionam problemas de código podem colar inadvertidamente scripts contendo chaves de API codificadas, credenciais de banco de dados ou tokens de acesso, expondo credenciais confidenciais sem perceber. Quando os dados chegam a uma plataforma de IA de terceiros, as organizações perdem a visibilidade de como eles são armazenados ou usados. Como resultado, os dados podem deixar uma organização sem trilha de auditoria, dificultando, se não impossível, rastrear ou conter uma violação. De acordo com o GDPR e a HIPAA, esse tipo de transferência descontrolada de dados pode constituir uma violação reportável.
Shadow AI expande rapidamente a superfície de ataque
Cada ferramenta de IA cria um novo vetor de ataque potencial para os cibercriminosos. Quando ferramentas não aprovadas são adotadas sem supervisão, elas podem incluir APIs ou plug-ins não verificados que são inseguros ou maliciosos. Os funcionários que acessam plataformas de IA por meio de contas ou dispositivos pessoais colocam essa atividade totalmente fora dos controles de segurança da organização, e o monitoramento de rede tradicional não consegue vê-la. À medida que as organizações começam a implantar agentes de IA que operam de forma autônoma nos fluxos de trabalho, o risco fica ainda mais grave. Esses sistemas interagem com vários aplicativos e plataformas, criando caminhos complexos e em grande parte ocultos que os cibercriminosos podem explorar.
Shadow AI ignora os controles de segurança tradicionais
Os controles de segurança tradicionais não foram desenvolvidos para lidar com o uso atual de IA. A maioria das plataformas de IA opera sobre HTTPS, o que significa que regras de firewall padrão e monitoramento de rede não podem inspecionar o conteúdo dessas interações sem a inspeção SSL implementada – um controle que muitas organizações não implantaram. As interfaces de IA conversacional também não se comportam como aplicativos tradicionais, tornando mais difícil para as ferramentas de segurança monitorar ou registrar atividades. Por isso, os dados podem ser compartilhados com sistemas externos de IA sem acionar nenhum alerta.
Shadow AI afeta a segurança de identidade
Shadow AI apresenta sérios desafios de gerenciamento de identidade e acesso (IAM). Por exemplo, os funcionários podem criar várias contas em plataformas de IA, resultando em identidades fragmentadas e não gerenciadas. Os desenvolvedores podem até conectar ferramentas de IA a sistemas usando contas de serviço, criando identidades não humanas (N
Por que a IA sombria está se espalhando tão rapidamente
A Shadow AI está se expandindo rapidamente nas organizações porque é fácil de adotar e instantaneamente útil, mas em grande parte não é regulamentada. Ao contrário do software empresarial tradicional, a maioria das ferramentas de IA exige pouca ou nenhuma configuração, permitindo que os funcionários comecem a usá-las imediatamente. De acordo com uma pesquisa da Salesforce de 2024, 55% dos funcionários relataram usar ferramentas de IA que não foram aprovadas pela organização. Como muitas organizações não possuem políticas claras de uso de IA, os funcionários devem decidir quais ferramentas usar e como usá-las por conta própria, muitas vezes sem compreender as implicações de segurança.
Os funcionários podem usar ferramentas generativas de IA, como ChatGPT ou Claude, nos fluxos de trabalho diários e, embora isso possa melhorar a produtividade, pode resultar no compartilhamento externo de dados confidenciais sem supervisão. O fato de o fornecedor de IA usar ou não esses dados para treinamento de modelo depende da plataforma e do tipo de conta, mas, em ambos os casos, os dados ultrapassaram os limites de segurança da organização.
No nível departamental, a IA sombra pode aparecer quando as equipes integram APIs de IA ou modelos de terceiros em aplicativos sem uma revisão formal de segurança. Essas integrações podem expor dados internos e introduzir novos vetores de ataque que as equipes de segurança não conseguem ver ou controlar. Em vez de tentar eliminar totalmente a IA oculta, as organizações devem gerenciar ativamente os riscos que ela cria.
Como a Shadow AI é um problema de segurança
A IA sombra é frequentemente enquadrada como uma questão de governança, mas é um problema de segurança em sua essência. Ao contrário da TI sombra tradicional, em que os funcionários adotam software não aprovado, a IA sombra envolve sistemas que processam e armazenam ativamente dados além do escopo das equipes de segurança, transformando o uso não autorizado de IA em um risco mais amplo de exposição de dados e uso indevido de acesso.
Shadow AI pode levar a vazamentos de dados não rastreáveis
Os funcionários podem compartilhar dados de clientes, informações financeiras ou documentos comerciais internos com ferramentas de IA para concluir tarefas com mais eficiência. Os desenvolvedores que solucionam problemas de código podem colar inadvertidamente scripts contendo chaves de API codificadas, credenciais de banco de dados ou tokens de acesso, expondo credenciais confidenciais sem perceber. Quando os dados chegam a uma plataforma de IA de terceiros, as organizações perdem a visibilidade de como eles são armazenados ou usados. Como resultado, os dados podem deixar uma organização sem trilha de auditoria, dificultando, se não impossível, rastrear ou conter uma violação. De acordo com o GDPR e a HIPAA, esse tipo de transferência descontrolada de dados pode constituir uma violação reportável.
Shadow AI expande rapidamente a superfície de ataque
Cada ferramenta de IA cria um novo vetor de ataque potencial para os cibercriminosos. Quando ferramentas não aprovadas são adotadas sem supervisão, elas podem incluir APIs ou plug-ins não verificados que são inseguros ou maliciosos. Os funcionários que acessam plataformas de IA por meio de contas ou dispositivos pessoais colocam essa atividade totalmente fora dos controles de segurança da organização, e o monitoramento de rede tradicional não consegue vê-la. À medida que as organizações começam a implantar agentes de IA que operam de forma autônoma nos fluxos de trabalho, o risco fica ainda mais grave. Esses sistemas interagem com vários aplicativos e plataformas, criando caminhos complexos e em grande parte ocultos que os cibercriminosos podem explorar.
Shadow AI ignora os controles de segurança tradicionais
Os controles de segurança tradicionais não foram desenvolvidos para lidar com o uso atual de IA. A maioria das plataformas de IA opera sobre HTTPS, o que significa que regras de firewall padrão e monitoramento de rede não podem inspecionar o conteúdo dessas interações sem a inspeção SSL implementada – um controle que muitas organizações não implantaram. As interfaces de IA conversacional também não se comportam como aplicativos tradicionais, tornando mais difícil para as ferramentas de segurança monitorar ou registrar atividades. Por isso, os dados podem ser compartilhados com sistemas externos de IA sem acionar nenhum alerta.
Shadow AI afeta a segurança de identidade
Shadow AI apresenta sérios desafios de gerenciamento de identidade e acesso (IAM). Por exemplo, os funcionários podem criar várias contas em plataformas de IA, resultando em identidades fragmentadas e não gerenciadas. Os desenvolvedores podem até conectar ferramentas de IA a sistemas usando contas de serviço, criando identidades não humanas (N
Fonte: https://thehackernews.com
#samirnews #samir #news #boletimtec #os #riscos #de #segurança #ocultos #da #shadow #ai #nas #empresas
🎉 Obrigado por acompanhar, até a próxima notícia!
Postar um comentário