HomeNotícias* Google utilizou a sua estrutura impulsionada por IA para detectar uma grande falha de segurança na base de dados SQLite de código aberto antes de ser amplamente explorada.
A falha, registada como CVE-2025-6965, é uma vulnerabilidade de corrupção de memória que afeta versões anteriores a 3.50.2.
O agente de IA, chamado "Big Sleep", identificou a ameaça, potencialmente interrompendo tentativas ativas de a explorar.
Google está a promover uma abordagem de segurança híbrida para agentes de IA para ajudar a reduzir os riscos de vulnerabilidades e ações maliciosas.
Este é o primeiro caso documentado de um agente de IA a impedir uma vulnerabilidade antes da sua exploração no mundo real.
Em 16 de julho de 2025, Google anunciou que o seu sistema de deteção de vulnerabilidades baseado em IA identificou uma falha crítica no motor de base de dados SQLite antes que os atacantes pudessem explorá-la. A descoberta envolveu um problema rotulado como CVE-2025-6965 e foi encontrado por "Big Sleep", um agente de IA criado através de uma colaboração entre Google DeepMind e Google Project Zero.
Anúncio - A vulnerabilidade recebeu uma pontuação CVSS de 7.2, o que sinaliza um risco severo. De acordo com os mantenedores do projeto SQLite, atacantes capazes de injetar código SQL prejudicial poderiam causar um estouro de inteiro e ler além dos limites de um array, levando a comportamentos imprevisíveis ou vazamentos de dados. Todas as versões do SQLite anteriores a 3.50.2 estão afetadas.
Google descreveu essa falha de segurança como crítica, observando que os agentes de ameaças estavam cientes dela e poderiam tê-la explorado. “Através da combinação de inteligência de ameaças e Big Sleep, o Google conseguiu prever que uma vulnerabilidade estava prestes a ser utilizada e conseguimos cortá-la antes,” disse Kent Walker, Presidente de Assuntos Globais do Google e Alphabet, em um comunicado oficial. Ele também disse: “Acreditamos que esta é a primeira vez que um agente de IA foi usado para frustrar diretamente os esforços de exploração de uma vulnerabilidade em campo.”
No ano passado, o Big Sleep também detectou uma vulnerabilidade separada no SQLite—um underflow de buffer na pilha—que poderia ter levado a falhas ou a atacantes executando código arbitrário. Em resposta a esses incidentes, o Google lançou um documento técnico que recomenda controles humanos claros e limites operacionais rigorosos para agentes de IA.
Google diz que os controles de segurança de software tradicionais não são suficientes, pois não fornecem o contexto necessário para os agentes de IA. Ao mesmo tempo, a segurança baseada apenas no julgamento da IA não oferece garantias fortes devido a fraquezas como a injeção de comandos. Para enfrentar isso, Google utiliza uma abordagem em várias camadas, de "defesa em profundidade", que combina salvaguardas tradicionais e defesas impulsionadas por IA. Essas camadas visam reduzir os riscos de ataques, mesmo que o processo interno do agente seja manipulado por ameaças ou entradas inesperadas.
Artigos Anteriores:
O Trader James Wynn Retorna à Hyperliquid Com Aposta de $20M em Bitcoin
A Rede Canton Adiciona Principais Empresas de Liquidez para Colateral On-Chain
Nexo Reduz as Taxas de Poupança Flexíveis AXS Após Mudanças no Protocolo
DEA apreende $10M em criptomoedas do Cartel de Sinaloa durante operações antidrogas na Flórida
Hong Kong Revela o Quadro LEAP, Estabelece Livro de Regras Global para Cripto
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Agente de IA do Google Descobre Falha Crítica no SQLite Antes da Exploração
HomeNotícias* Google utilizou a sua estrutura impulsionada por IA para detectar uma grande falha de segurança na base de dados SQLite de código aberto antes de ser amplamente explorada.
Google descreveu essa falha de segurança como crítica, observando que os agentes de ameaças estavam cientes dela e poderiam tê-la explorado. “Através da combinação de inteligência de ameaças e Big Sleep, o Google conseguiu prever que uma vulnerabilidade estava prestes a ser utilizada e conseguimos cortá-la antes,” disse Kent Walker, Presidente de Assuntos Globais do Google e Alphabet, em um comunicado oficial. Ele também disse: “Acreditamos que esta é a primeira vez que um agente de IA foi usado para frustrar diretamente os esforços de exploração de uma vulnerabilidade em campo.”
No ano passado, o Big Sleep também detectou uma vulnerabilidade separada no SQLite—um underflow de buffer na pilha—que poderia ter levado a falhas ou a atacantes executando código arbitrário. Em resposta a esses incidentes, o Google lançou um documento técnico que recomenda controles humanos claros e limites operacionais rigorosos para agentes de IA.
Google diz que os controles de segurança de software tradicionais não são suficientes, pois não fornecem o contexto necessário para os agentes de IA. Ao mesmo tempo, a segurança baseada apenas no julgamento da IA não oferece garantias fortes devido a fraquezas como a injeção de comandos. Para enfrentar isso, Google utiliza uma abordagem em várias camadas, de "defesa em profundidade", que combina salvaguardas tradicionais e defesas impulsionadas por IA. Essas camadas visam reduzir os riscos de ataques, mesmo que o processo interno do agente seja manipulado por ameaças ou entradas inesperadas.
Artigos Anteriores: