Tem vulns? vuln_GPT estreia como abordagem baseada em IA para encontrar e corrigir vulnerabilidades de software
Um dos desafios significativos que as organizações enfrentam, independentemente de seu tamanho, é identificar e corrigir possíveis pontos fracos em seu software.
De acordo com a Vicarius, startup de segurança cibernética sediada em Nova York, a solução para corrigir vulnerabilidades rapidamente pode muito bem depender do uso de modelos generativos de linguagem ampla (LLMs) de IA.
Fundada em 2016, a Vicarius criou uma solução robusta de gerenciamento de vulnerabilidades projetada para ajudar as organizações a lidar com ameaças de segurança, identificando e resolvendo quaisquer pontos fracos em seus sistemas.
À luz da próxima conferência de segurança Black Hat em Las Vegas, a Vicarius revelou sua inovadora iniciativa vuln\_GPT, que é um modelo de linguagem avançado especificamente criado para ajudar as organizações a identificar e criar scripts com eficiência para avaliação e resolução de vulnerabilidades por meio do uso de pedidos de pesquisa. O compromisso da empresa em promover a colaboração dentro de sua extensa comunidade vsociety, composta por pesquisadores dedicados e usuários finais, ressalta ainda mais sua dedicação a medidas proativas de segurança cibernética, permitindo que eles compartilhem e contribuam com suas próprias soluções personalizadas para lidar com vulnerabilidades de segurança reconhecidas.
Após o lançamento do ChatGPT em 2022, nosso CEO, Michael Assraf, rapidamente percebeu que certos estudiosos estavam utilizando inteligência artificial generativa para criar scripts rapidamente. Consequentemente, o Sr. Assraf considerou prudente que nossa organização construísse um mecanismo de IA sob medida para atender às nossas necessidades específicas.
Utilizando vuln\_GPT, os indivíduos são capazes de criar scripts de mitigação de forma rápida e sem esforço por meio de um modelo de linguagem avançado que passou por refinamento e treinamento usando o repositório de informações e dados da Vicarius, conforme retransmitido por Assraf para All Things IT @AI.
Como vuln_GPT funciona

O Vicarius utiliza os dados do Vuln\_GPT e do OpenAI, cada um possuindo suas proficiências individuais na geração de código. Além disso, a Vicarius está atualmente explorando Large Language Models (LLMs) adicionais, como Meta’s LLaMA e Hugging Face/ServiceNow’s StarCoder, para integração potencial no futuro.
Quando um usuário envia uma solicitação ao sistema vuln\_GPT, ele inicia uma pesquisa na infraestrutura de banco de dados de vetores do Vicarius para determinar se existe uma solução pré-existente ou uma alternativa comparável para a vulnerabilidade específica em questão, que pode ser identificada por seu Comum Número de identificação de vulnerabilidades e exposições (CVE). Isso permite que o mecanismo gen AI forneça um script existente adaptado para lidar com a vulnerabilidade especificada ou gere um novo usando sua base de conhecimento aprendida.
Todos os scripts da comunidade vSociety, bem como aqueles utilizados na plataforma comercial VRx da Vicarius, passam por um rigoroso processo de validação antes de serem tornados públicos. Além disso, a incorporação de alguma forma de supervisão humana, por meio da qual os usuários podem fornecer feedback junto com o vuln\_GPT, alinha-se aos objetivos estratégicos da Assraf de aprimorar as medidas de segurança nessas plataformas.
Nossa empresa utiliza uma plataforma interna conhecida como “vadmin”, que nos permite revisar qualquer script que possa conter erros ou mau funcionamento em nossas plataformas de realidade virtual. Antes de publicar esses scripts revisados em sistemas como VRx ou vSociety, realizamos um processo de revisão completo para garantir sua precisão e confiabilidade.
Patching e controles de compensação
Em certos casos, lidar com vulnerabilidades pode exigir mais do que simplesmente implantar um patch de software. Nesses casos, implementar um controle compensatório pode ser uma solução eficaz de curto prazo para mitigar os riscos associados à vulnerabilidade.
Assraf observou que o modelo vuln\_GPT possui a capacidade de produzir com eficiência medidas compensatórias para as vulnerabilidades identificadas. Especificamente, caso exista uma fraqueza inerente em um aplicativo de software baseado em Linux, a vulnerabilidade\_GPT pode criar rapidamente um script que pode ser executado por um usuário para desativar uma funcionalidade específica do kernel do Linux, tornando assim a vulnerabilidade incapaz de ser explorada.
Um controle compensatório pode ser considerado uma opção viável para mitigar vulnerabilidades em determinadas situações, segundo Assraf. Isso é particularmente relevante quando as organizações relutam em aplicar patches devido a longos procedimentos de gerenciamento de alterações que podem interromper os sistemas existentes ou causar consequências indesejadas. Nesses casos, o uso de controles de compensação torna-se uma opção mais atraente para a mitigação de riscos.
*️⃣ Link da fonte: