📰 Informação fresquinha chegando para você!

Leia, comente e fique sempre atualizado!

Apoie esse projeto de divulgacao de noticias! Clique aqui
À medida que mais organizações executam seus próprios Large Language Models (LLMs), elas também implantam mais serviços internos e interfaces de programação de aplicativos (APIs) para dar suporte a esses modelos. Os riscos de segurança modernos estão a ser introduzidos menos a partir dos próprios modelos e mais a partir da infraestrutura que serve, liga e automatiza o modelo. Cada novo endpoint LLM expande a superfície de ataque, muitas vezes de maneiras fáceis de ignorar durante a implantação rápida, especialmente quando os endpoints são implicitamente confiáveis. Quando os endpoints LLM acumulam permissões excessivas e credenciais de longa duração são expostas, eles podem fornecer muito mais acesso do que o pretendido. As organizações devem priorizar o gerenciamento de privilégios de endpoint porque os endpoints expostos se tornaram um vetor de ataque cada vez mais comum para os cibercriminosos acessarem os sistemas, identidades e segredos que alimentam as cargas de trabalho do LLM.

O que é um ponto final na infraestrutura moderna de LLM?

Na infraestrutura LLM moderna, um endpoint é qualquer interface onde algo — seja um usuário, aplicativo ou serviço — pode se comunicar com um modelo. Simplificando, os endpoints permitem que solicitações sejam enviadas a um LLM e que as respostas sejam retornadas. Exemplos comuns incluem APIs de inferência que lidam com prompts e geram resultados, interfaces de gerenciamento de modelos usadas para atualizar modelos e painéis administrativos que permitem que as equipes monitorem o desempenho. Muitas implantações de LLM também dependem de endpoints de execução de plug-ins ou ferramentas, que permitem que os modelos interajam com serviços externos, como bancos de dados que podem conectar o LLM a outros sistemas. Juntos, esses terminais definem como o LLM se conecta ao restante do seu ambiente.

O principal desafio é que a maioria dos endpoints LLM são criados para uso interno e velocidade, e não para segurança de longo prazo. Eles normalmente são criados para dar suporte a experimentações ou implantações iniciais e depois permanecem em execução com supervisão mínima. Como resultado, tendem a ser mal monitorizados e a ter mais acesso do que o necessário. Na prática, o endpoint torna-se o limite de segurança, o que significa que os seus controlos de identidade, tratamento de segredos e âmbito de privilégios determinam até onde um cibercriminoso pode ir.

Como os endpoints LLM ficam expostos

Os LLMs raramente são expostos através de uma falha; mais frequentemente, a exposição acontece gradualmente através de pequenas suposições e decisões tomadas durante o desenvolvimento e a implantação. Com o tempo, esses padrões transformam serviços internos em superfícies de ataque acessíveis externamente. Alguns dos padrões de exposição mais comuns incluem:

APIs acessíveis publicamente sem autenticação: APIs internas às vezes são expostas publicamente para acelerar testes ou integração. A autenticação é atrasada ou totalmente ignorada e o endpoint permanece acessível muito depois de ter sido restringido.

Tokens fracos ou estáticos: muitos endpoints LLM dependem de tokens ou chaves de API que são codificadas e nunca rotacionadas. Se esses segredos vazarem através de sistemas ou repositórios mal configurados, usuários não autorizados poderão acessar um endpoint indefinidamente.

A suposição de que interno significa seguro: as equipes geralmente tratam os endpoints internos como confiáveis ​​por padrão, presumindo que eles nunca serão alcançados por usuários não autorizados. No entanto, as redes internas são frequentemente acessíveis através de VPNs ou controles mal configurados.

Endpoints de teste temporários que se tornam permanentes: Endpoints projetados para depuração ou demonstrações raramente são limpos. Com o tempo, esses terminais permanecem ativos, mas não monitorados e mal protegidos, enquanto a infraestrutura circundante evolui.

Configurações incorretas da nuvem que expõem serviços: Gateways de API ou regras de firewall mal configurados podem expor involuntariamente endpoints internos do LLM à Internet. Essas configurações incorretas geralmente ocorrem gradualmente e passam despercebidas até que o endpoint já esteja exposto.



Por que os endpoints expostos são perigosos em toda a infraestrutura LLM

Os endpoints expostos são particularmente perigosos em ambientes LLM porque os LLMs são projetados para conectar vários sistemas dentro de uma infraestrutura técnica mais ampla. Quando os cibercriminosos comprometem um único endpoint LLM, muitas vezes podem obter acesso a muito mais do que o próprio modelo. Ao contrário das APIs tradicionais que executam uma função, os endpoints LLM são comumente integrados a bancos de dados, ferramentas internas ou serviços em nuvem para oferecer suporte a fluxos de trabalho automatizados. Portanto, um endpoint comprometido pode permitir que os cibercriminosos se movam rápida e lateralmente entre sistemas que já confiam no LLM por padrão.

O perigo real não deriva do LLM ser muito poderoso, mas sim da confiança implícita depositada no endpoint desde o início. Uma vez exposto um endpoint LLM, ele pode atuar como um multiplicador de força; os cibercriminosos podem usar um endpoint comprometido para várias tarefas automatizadas, em vez de explorar os sistemas manualmente. Endpoints expostos podem comprometer ambientes LLM por meio de:

Exfiltração de dados orientada por prompt: os cibercriminosos podem
Siga Canal Fsociety para mais novidades:
Instagram | Facebook | Telegram | Twitter
#samirnews #samir #news #boletimtec #como #os #endpoints #expostos #aumentam #o #risco #em #toda #a #infraestrutura #llm
🎉 Obrigado por acompanhar, até a próxima notícia!

Post a Comment