🔥 Fique por dentro das novidades mais quentes do momento! 🔥
Sua opinião é importante: leia e participe!
Apoie esse projeto de divulgacao de noticias! Clique aqui
O mercado de Agentic SOC, ou agentes AI SOC, como o Gartner os chama, está se movendo rapidamente. Dezenas de startups entraram no mercado nos últimos 18 meses, cada uma prometendo transformar a forma como as equipes de operações de segurança lidam com a triagem, investigação e resposta de alertas.
A proposta geralmente é alguma versão da mesma coisa: implantar um agente de IA, reduzir sua lista de pendências de alertas e liberar seus analistas para se concentrarem em trabalhos de maior valor.
Algumas dessas promessas são reais. Mas a pesquisa mais recente do Gartner sobre a categoria sugere que a maioria das organizações que avaliam essas ferramentas estão fazendo as perguntas erradas ou não as fazem o suficiente.
Em um relatório recente do Gartner intitulado Validate the Promises of AI SOC Agents With These Key Questions, os analistas Craig Lawson e Andrew Davies apresentam uma estrutura de avaliação estruturada para líderes de segurança cibernética que consideram implantações de agentes AI SOC.
A sua conclusão central é preocupante: embora se espere que 70% dos grandes SOCs pilotem agentes de IA para operações de Nível 1 e Nível 2 até 2028, apenas 15% alcançarão melhorias mensuráveis sem uma avaliação estruturada. Você pode baixar uma cópia complementar do relatório completo aqui.
Essa lacuna entre a adoção e os resultados é enorme, se houver confiança. Ele sugere que o problema que a maioria das equipes de segurança enfrenta é menos sobre a adoção de IA no SOC e mais sobre como separar a melhoria operacional genuína do ruído de marketing.
Aqui estão as principais áreas que o Gartner recomenda avaliar e por que cada uma delas é crítica para o sucesso.
1. Isso realmente reduz o trabalho que sua equipe realiza hoje?
Isso parece óbvio, mas o Gartner enquadra isso com cuidado. A primeira pergunta não é “o que esta ferramenta pode fazer?” mas sim "quais funções SOC sua organização administra hoje que são desperdícios de tempo repetitivos de valor limitado para melhorar a detecção, investigação e resposta a ameaças?"
Uma ferramenta pode demonstrar recursos impressionantes em um ambiente de demonstração, ao mesmo tempo em que aborda fluxos de trabalho que sua equipe já resolveu por outros meios. A avaliação deve começar com seus gargalos operacionais, e não com a lista de recursos do fornecedor.
O Gartner também recomenda perguntar quais tarefas específicas são mais adequadas para aumento e se a solução foi desenvolvida especificamente para funções SOC específicas. Uma plataforma projetada em torno da triagem e investigação de alertas abordará o problema de maneira diferente daquela construída para criar regras de fluxo de trabalho se/então.
Compreender esse escopo antecipadamente evita expectativas desalinhadas posteriormente.
Valide as promessas dos agentes AI SOC com estas questões-chave
Este relatório do Gartner fornece aos líderes de segurança cibernética perguntas importantes e uma maneira pragmática de avaliar as soluções AI SOC, garantindo que elas realmente melhorem a eficiência e os resultados operacionais do programa de Detecção, Investigação e Resposta a Ameaças (TDIR).
Baixe agora
2. Como você mede os resultados além dos “alertas processados”?
As métricas de volume podem ser enganosas. Processing 10,000 alerts a month means very little if the quality of investigation degrades or if true positives slip through.
O Gartner enfatiza que a avaliação deve centrar-se em melhorias nas métricas e resultados do TDIR: tempo médio para detecção, tempo médio para resposta e redução de falsos positivos. Mas o relatório vai mais longe, salientando que os resultados qualitativos também são importantes.
A ferramenta está melhorando a satisfação do analista? Isso está levando a uma melhor execução, e não apenas a uma execução mais rápida?
O relatório sublinha também que o tempo médio de contenção (MTTC) deve ser o objectivo final global, uma vez que é na contenção que o risco é efectivamente reduzido. Qualquer conversa com o fornecedor que pare na velocidade da triagem sem abordar a qualidade da investigação posterior e os prazos de contenção está deixando de fora a parte que mais importa.
Peça benchmarks do mundo real de ambientes semelhantes ao seu. E pergunte se esses benchmarks foram coletados durante uma prova de conceito ou em uso de produção sustentada, porque esses números geralmente são muito diferentes.
3. O fornecedor estará disponível em dois anos?
Esta categoria está em estágio inicial. O relatório do Gartner descreve um mercado com um grande número de startups que utilizam diferentes abordagens e princípios de design. Essa diversidade é saudável para a inovação, mas introduz riscos para os fornecedores que os líderes da segurança cibernética precisam avaliar honestamente.
O relatório recomenda perguntar quando a solução de um fornecedor se tornou disponível ao público pela primeira vez, como é a sua base de clientes atual e quais são as suas perspectivas financeiras e de financiamento. O Gartner também sugere aceitar que as aquisições neste espaço são altamente prováveis e tratar essa realidade como um risco de gestão de fornecedores terceirizados, em vez de um fator de desqualificação.
Os modelos de preços também merecem exame minucioso. O preço de alguns agentes AI SOC é baseado no volume de alertas, outros no volume de dados ou no uso de tokens.
O custo do processamento de grandes volumes de alertas por meio de um sistema apoiado por LLM pode aumentar de maneiras inesperadas, e o Gartner alerta especificamente os compradores para que
A proposta geralmente é alguma versão da mesma coisa: implantar um agente de IA, reduzir sua lista de pendências de alertas e liberar seus analistas para se concentrarem em trabalhos de maior valor.
Algumas dessas promessas são reais. Mas a pesquisa mais recente do Gartner sobre a categoria sugere que a maioria das organizações que avaliam essas ferramentas estão fazendo as perguntas erradas ou não as fazem o suficiente.
Em um relatório recente do Gartner intitulado Validate the Promises of AI SOC Agents With These Key Questions, os analistas Craig Lawson e Andrew Davies apresentam uma estrutura de avaliação estruturada para líderes de segurança cibernética que consideram implantações de agentes AI SOC.
A sua conclusão central é preocupante: embora se espere que 70% dos grandes SOCs pilotem agentes de IA para operações de Nível 1 e Nível 2 até 2028, apenas 15% alcançarão melhorias mensuráveis sem uma avaliação estruturada. Você pode baixar uma cópia complementar do relatório completo aqui.
Essa lacuna entre a adoção e os resultados é enorme, se houver confiança. Ele sugere que o problema que a maioria das equipes de segurança enfrenta é menos sobre a adoção de IA no SOC e mais sobre como separar a melhoria operacional genuína do ruído de marketing.
Aqui estão as principais áreas que o Gartner recomenda avaliar e por que cada uma delas é crítica para o sucesso.
1. Isso realmente reduz o trabalho que sua equipe realiza hoje?
Isso parece óbvio, mas o Gartner enquadra isso com cuidado. A primeira pergunta não é “o que esta ferramenta pode fazer?” mas sim "quais funções SOC sua organização administra hoje que são desperdícios de tempo repetitivos de valor limitado para melhorar a detecção, investigação e resposta a ameaças?"
Uma ferramenta pode demonstrar recursos impressionantes em um ambiente de demonstração, ao mesmo tempo em que aborda fluxos de trabalho que sua equipe já resolveu por outros meios. A avaliação deve começar com seus gargalos operacionais, e não com a lista de recursos do fornecedor.
O Gartner também recomenda perguntar quais tarefas específicas são mais adequadas para aumento e se a solução foi desenvolvida especificamente para funções SOC específicas. Uma plataforma projetada em torno da triagem e investigação de alertas abordará o problema de maneira diferente daquela construída para criar regras de fluxo de trabalho se/então.
Compreender esse escopo antecipadamente evita expectativas desalinhadas posteriormente.
Valide as promessas dos agentes AI SOC com estas questões-chave
Este relatório do Gartner fornece aos líderes de segurança cibernética perguntas importantes e uma maneira pragmática de avaliar as soluções AI SOC, garantindo que elas realmente melhorem a eficiência e os resultados operacionais do programa de Detecção, Investigação e Resposta a Ameaças (TDIR).
Baixe agora
2. Como você mede os resultados além dos “alertas processados”?
As métricas de volume podem ser enganosas. Processing 10,000 alerts a month means very little if the quality of investigation degrades or if true positives slip through.
O Gartner enfatiza que a avaliação deve centrar-se em melhorias nas métricas e resultados do TDIR: tempo médio para detecção, tempo médio para resposta e redução de falsos positivos. Mas o relatório vai mais longe, salientando que os resultados qualitativos também são importantes.
A ferramenta está melhorando a satisfação do analista? Isso está levando a uma melhor execução, e não apenas a uma execução mais rápida?
O relatório sublinha também que o tempo médio de contenção (MTTC) deve ser o objectivo final global, uma vez que é na contenção que o risco é efectivamente reduzido. Qualquer conversa com o fornecedor que pare na velocidade da triagem sem abordar a qualidade da investigação posterior e os prazos de contenção está deixando de fora a parte que mais importa.
Peça benchmarks do mundo real de ambientes semelhantes ao seu. E pergunte se esses benchmarks foram coletados durante uma prova de conceito ou em uso de produção sustentada, porque esses números geralmente são muito diferentes.
3. O fornecedor estará disponível em dois anos?
Esta categoria está em estágio inicial. O relatório do Gartner descreve um mercado com um grande número de startups que utilizam diferentes abordagens e princípios de design. Essa diversidade é saudável para a inovação, mas introduz riscos para os fornecedores que os líderes da segurança cibernética precisam avaliar honestamente.
O relatório recomenda perguntar quando a solução de um fornecedor se tornou disponível ao público pela primeira vez, como é a sua base de clientes atual e quais são as suas perspectivas financeiras e de financiamento. O Gartner também sugere aceitar que as aquisições neste espaço são altamente prováveis e tratar essa realidade como um risco de gestão de fornecedores terceirizados, em vez de um fator de desqualificação.
Os modelos de preços também merecem exame minucioso. O preço de alguns agentes AI SOC é baseado no volume de alertas, outros no volume de dados ou no uso de tokens.
O custo do processamento de grandes volumes de alertas por meio de um sistema apoiado por LLM pode aumentar de maneiras inesperadas, e o Gartner alerta especificamente os compradores para que
#samirnews #samir #news #boletimtec #como #avaliar #agentes #ai #soc: #7 #perguntas #que #o #gartner #diz #que #você #deveria #fazer
💡 Compartilhe e ajude nosso projeto a crescer!
Postar um comentário