⚡ Não perca: notícia importante no ar! ⚡
Sua opinião é importante: leia e participe!
Apoie esse projeto de divulgacao de noticias! Clique aqui
As duras verdades da adoção da IA
O MITS State of IA In Business Report revelou que, embora 40% das organizações tenham adquirido assinaturas da Enterprise LLM, mais de 90% dos funcionários estão usando ativamente as ferramentas de IA em seu trabalho diário. Da mesma forma, a pesquisa da segurança harmônica constatou que 45,4% das interações sensíveis de IA são provenientes de contas de email pessoais, onde os funcionários estão ignorando completamente os controles corporativos.
Compreensivelmente, isso levou a muitas preocupações em torno de uma crescente "economia da IA das sombras". Mas o que isso significa e como as equipes de segurança e governança da IA podem superar esses desafios?
Entre em contato com a segurança harmônica para saber mais sobre a descoberta da Shadow AI e aplicar sua política de uso de IA.
O uso da IA é impulsionado por funcionários, não comitês
As empresas veem incorretamente o uso de IA como algo que vem de cima para baixo, definido por seus próprios líderes empresariais visionários. Agora sabemos que isso está errado. Na maioria dos casos, os funcionários estão impulsionando a adoção de baixo para cima, geralmente sem supervisão, enquanto as estruturas de governança ainda estão sendo definidas de cima para baixo. Mesmo que tenham ferramentas sancionadas por empreendimentos, eles geralmente os evitam em favor de outras ferramentas mais recentes que são mais bem colocadas para melhorar sua produtividade.
A menos que os líderes de segurança entendam essa realidade, descubram e governem essa atividade, eles estão expondo os negócios a riscos significativos.
Por que o bloqueio falha
Muitas organizações tentaram enfrentar esse desafio com uma estratégia "Block and Wait". Essa abordagem busca restringir o acesso a plataformas de IA bem conhecidas e a adoção da esperança diminui.
A realidade é diferente.
A IA não é mais uma categoria que pode ser facilmente cercada. De aplicativos de produtividade como Canva e gramática a ferramentas de colaboração com assistentes incorporados, a IA é tecida em quase todos os aplicativos SaaS. O bloqueio de uma ferramenta leva apenas os funcionários a outro, geralmente através de contas pessoais ou dispositivos domésticos, deixando a empresa cega ao uso real.
Este não é o caso de todas as empresas, é claro. As equipes de segurança e governança de IA de ligação avançada estão buscando entender proativamente o que os funcionários estão usando e com quais casos de uso. Eles procuram entender o que está acontecendo e como ajudar seus funcionários a usar as ferramentas da maneira mais segura possível.
Shadow ai descoberta como um imperativo de governança
Um inventário de ativos da IA é um requisito regulatório e não é bom de se ter. Estruturas como a Lei da AI da UE exigem explicitamente organizações a manter a visibilidade nos sistemas de IA em uso, porque sem a descoberta não há inventário e, sem um inventário, não pode haver governança. Shadow AI é um componente essencial disso.
Diferentes ferramentas de IA apresentam riscos diferentes. Alguns podem treinar silenciosamente em dados proprietários, outros podem armazenar informações confidenciais em jurisdições como a China, criando exposição à propriedade intelectual. Para cumprir os regulamentos e proteger os negócios, os líderes de segurança devem primeiro descobrir o escopo completo do uso da IA, abrangendo contas corporativas sancionadas e as pessoais não autorizadas.
Uma vez armado com essa visibilidade, as organizações podem separar casos de uso de baixo risco daqueles que envolvem dados confidenciais, fluxos de trabalho regulamentados ou exposição geográfica. Somente então eles podem impor políticas de governança significativas que protegem os dados e possibilitem a produtividade dos funcionários.
Como a segurança harmônica ajuda
A segurança harmônica permite essa abordagem, fornecendo controles de inteligência para o uso dos funcionários da IA. Isso inclui o monitoramento contínuo da AI das sombras, com avaliações de risco prontas para uso para cada aplicativo.
Em vez de confiar nas listas de blocos estáticos, o Harmonic fornece visibilidade para o uso de IA sancionado e não autorizado, aplica políticas inteligentes com base na sensibilidade dos dados, no papel do funcionário e na natureza da ferramenta.
Isso significa que uma equipe de marketing pode ser autorizada a colocar informações específicas em ferramentas específicas para criação de conteúdo, enquanto as equipes de RH ou jurídicas são restringidas de usar contas pessoais para informações confidenciais dos funcionários. Isso é sustentado por modelos que podem identificar e classificar informações à medida que os funcionários compartilham os dados. Isso permite que as equipes apliquem políticas de IA com a precisão necessária.
O caminho a seguir
Shadow Ai está aqui para ficar. À medida que mais aplicativos SaaS incorporam a IA, o uso não gerenciado só será expandido. As organizações que não abordarão a descoberta hoje se encontrarão incapazes de governar amanhã.
O caminho a seguir é governá -lo de forma inteligente, em vez de bloqueá -lo. A Shadow AI Discovery oferece à CISOS a visibilidade necessária para proteger dados confidenciais, atender aos requisitos regulatórios e capacitar os funcionários a aproveitar com segurança os benefícios de produtividade da IA.
A segurança harmônica já está ajudando as empresas a dar o próximo passo na governança da IA.
Para o CISOS, não é mais uma questão de saber se os funcionários estão usando a AI das sombras ... é se você pode vê -lo.
Fo
O MITS State of IA In Business Report revelou que, embora 40% das organizações tenham adquirido assinaturas da Enterprise LLM, mais de 90% dos funcionários estão usando ativamente as ferramentas de IA em seu trabalho diário. Da mesma forma, a pesquisa da segurança harmônica constatou que 45,4% das interações sensíveis de IA são provenientes de contas de email pessoais, onde os funcionários estão ignorando completamente os controles corporativos.
Compreensivelmente, isso levou a muitas preocupações em torno de uma crescente "economia da IA das sombras". Mas o que isso significa e como as equipes de segurança e governança da IA podem superar esses desafios?
Entre em contato com a segurança harmônica para saber mais sobre a descoberta da Shadow AI e aplicar sua política de uso de IA.
O uso da IA é impulsionado por funcionários, não comitês
As empresas veem incorretamente o uso de IA como algo que vem de cima para baixo, definido por seus próprios líderes empresariais visionários. Agora sabemos que isso está errado. Na maioria dos casos, os funcionários estão impulsionando a adoção de baixo para cima, geralmente sem supervisão, enquanto as estruturas de governança ainda estão sendo definidas de cima para baixo. Mesmo que tenham ferramentas sancionadas por empreendimentos, eles geralmente os evitam em favor de outras ferramentas mais recentes que são mais bem colocadas para melhorar sua produtividade.
A menos que os líderes de segurança entendam essa realidade, descubram e governem essa atividade, eles estão expondo os negócios a riscos significativos.
Por que o bloqueio falha
Muitas organizações tentaram enfrentar esse desafio com uma estratégia "Block and Wait". Essa abordagem busca restringir o acesso a plataformas de IA bem conhecidas e a adoção da esperança diminui.
A realidade é diferente.
A IA não é mais uma categoria que pode ser facilmente cercada. De aplicativos de produtividade como Canva e gramática a ferramentas de colaboração com assistentes incorporados, a IA é tecida em quase todos os aplicativos SaaS. O bloqueio de uma ferramenta leva apenas os funcionários a outro, geralmente através de contas pessoais ou dispositivos domésticos, deixando a empresa cega ao uso real.
Este não é o caso de todas as empresas, é claro. As equipes de segurança e governança de IA de ligação avançada estão buscando entender proativamente o que os funcionários estão usando e com quais casos de uso. Eles procuram entender o que está acontecendo e como ajudar seus funcionários a usar as ferramentas da maneira mais segura possível.
Shadow ai descoberta como um imperativo de governança
Um inventário de ativos da IA é um requisito regulatório e não é bom de se ter. Estruturas como a Lei da AI da UE exigem explicitamente organizações a manter a visibilidade nos sistemas de IA em uso, porque sem a descoberta não há inventário e, sem um inventário, não pode haver governança. Shadow AI é um componente essencial disso.
Diferentes ferramentas de IA apresentam riscos diferentes. Alguns podem treinar silenciosamente em dados proprietários, outros podem armazenar informações confidenciais em jurisdições como a China, criando exposição à propriedade intelectual. Para cumprir os regulamentos e proteger os negócios, os líderes de segurança devem primeiro descobrir o escopo completo do uso da IA, abrangendo contas corporativas sancionadas e as pessoais não autorizadas.
Uma vez armado com essa visibilidade, as organizações podem separar casos de uso de baixo risco daqueles que envolvem dados confidenciais, fluxos de trabalho regulamentados ou exposição geográfica. Somente então eles podem impor políticas de governança significativas que protegem os dados e possibilitem a produtividade dos funcionários.
Como a segurança harmônica ajuda
A segurança harmônica permite essa abordagem, fornecendo controles de inteligência para o uso dos funcionários da IA. Isso inclui o monitoramento contínuo da AI das sombras, com avaliações de risco prontas para uso para cada aplicativo.
Em vez de confiar nas listas de blocos estáticos, o Harmonic fornece visibilidade para o uso de IA sancionado e não autorizado, aplica políticas inteligentes com base na sensibilidade dos dados, no papel do funcionário e na natureza da ferramenta.
Isso significa que uma equipe de marketing pode ser autorizada a colocar informações específicas em ferramentas específicas para criação de conteúdo, enquanto as equipes de RH ou jurídicas são restringidas de usar contas pessoais para informações confidenciais dos funcionários. Isso é sustentado por modelos que podem identificar e classificar informações à medida que os funcionários compartilham os dados. Isso permite que as equipes apliquem políticas de IA com a precisão necessária.
O caminho a seguir
Shadow Ai está aqui para ficar. À medida que mais aplicativos SaaS incorporam a IA, o uso não gerenciado só será expandido. As organizações que não abordarão a descoberta hoje se encontrarão incapazes de governar amanhã.
O caminho a seguir é governá -lo de forma inteligente, em vez de bloqueá -lo. A Shadow AI Discovery oferece à CISOS a visibilidade necessária para proteger dados confidenciais, atender aos requisitos regulatórios e capacitar os funcionários a aproveitar com segurança os benefícios de produtividade da IA.
A segurança harmônica já está ajudando as empresas a dar o próximo passo na governança da IA.
Para o CISOS, não é mais uma questão de saber se os funcionários estão usando a AI das sombras ... é se você pode vê -lo.
Fo
Fonte: https://thehackernews.com
#samirnews #samir #news #boletimtec #shadow #ai #discovery: #uma #parte #crítica #da #governança #da #ia #corporativa
💡 Compartilhe e ajude nosso projeto a crescer!
Postar um comentário