38:26
youtube.com 08/04/2026 SRT AI Videos

Why, and how you need to sandbox AI-Generated Code? — Harshil Agrawal, Cloudflare

Código gerado por IA: por que e como isolar para evitar riscos?

Inteligência Artificial Tecnologia Segurança Cibernética

Conteudo

TLDR;

Porque código gerado por LLMs é essencialmente código não confiável que pode estar errado, vazar credenciais ou ser manipulado por prompts e roda com os mesmos privilégios da sua aplicação. Aplicando segurança baseada em capacidades: negar tudo por padrão e conceder apenas as capacidades mínimas necessárias (allow-list), isolando a execução em sandboxes como fazem navegadores e sistemas operacionais. As principais ameaças são alucinações que quebram serviços, LLMs “muito úteis” que expõem segredos e injeções de prompt (diretas ou indiretas) que podem exfiltrar dados.

Resumo

Hershel, desenvolvedor sênior e defensor de desenvolvedores na Cloudflare, alerta que, embora assistentes e agentes autônomos de IA acelerem a entrega de software, estamos essencialmente executando código não confiável originado da internet. Modelos de linguagem grande (LLMs) geram código como caixa preta: às vezes correto, às vezes errado ou perigoso por alucinação, excesso de “ajuda” que expõe segredos, ou injeções de prompt que instruem a exfiltrar variáveis de ambiente. Esse código roda com os privilégios reais da aplicação — acesso a sistema de arquivos, rede, bancos de dados e chaves — tornando falhas e ataques capazes de derrubar serviços, vazar credenciais ou consumir recursos. A solução não é proibir IA, e sim aplicar práticas consolidadas: sandboxing e segurança baseada em capacidades. Em vez de listar bloqueios, devemos negar tudo por padrão e conceder apenas capacidades mínimas e explícitas que o código precisa, como fazem navegadores, sistemas operacionais e sistemas móveis. Hershel enfatiza que o problema não é técnico inédito, mas cultural: na pressa de lançar recursos de IA esquecemos de aplicar controles já conhecidos; recuperar esse rigor é urgente para proteger sistemas que delegam execução a código gerado por LLMs. Adotar essas medidas preservará inovação segura e confiança do usuário.