13:49
youtube.com ha 3 dias SRT AI Coder TODAY

Modelo antrópico do 'Mito de Claude' gera temores apocalípticos da IA

Modelo antrópico do Mito de Claude gera temores apocalípticos sobre inteligência artificial.

Anthropic Tecnologia Claude Mythos Segurança Cibernética

Conteudo

TLDR;

O "Mito de Claude" (Claude Mythos) é um modelo de linguagem avançado da Anthropic, treinado com mais dados e capacidade computacional e focado em tarefas como desenvolvimento de código. Preocupações apocalípticas surgem porque testes indicam que o Mythos consegue encontrar vulnerabilidades e zero‑day exploits mais eficientemente que modelos anteriores, o que poderia facilitar ataques em larga escala se cair em mãos erradas. A Anthropic adiou o lançamento para testar o modelo com parceiros e mitigar riscos, mas especialistas acreditam que a liberação pública é provável no futuro devido a incentivos econômicos.

Resumo

Na entrevista do Live Now from Fox, a apresentadora Stephanie Quino conversa com o professor Dr. Peter Stone sobre o modelo Claude Mythos, da Anthropic, um grande modelo de linguagem parecido com o ChatGPT e o Gemini, treinado com mais dados e capacidade de processamento e especializado em auxiliar no desenvolvimento de código. A Anthropic divulgou resultados em um "model card" que mostram desempenho superior na descoberta de vulnerabilidades em software, incluindo falhas antigas não detectadas por humanos ou modelos anteriores, levantando receios de que o sistema possa gerar muitos exploits "zero-day" difíceis de corrigir em tempo. Embora a empresa tenha adiado a liberação pública e esteja testando o modelo com grandes parceiras como Microsoft e Google (Projeto Glasswing), Stone acredita que a liberação eventual é provável por motivos econômicos, embora temporariamente positiva por permitir que empresas testem e remedem falhas. Ele reconhece preocupações legítimas de segurança e também que parte da narrativa pode ser interesse de relações públicas; por fim, comenta que debates sobre consciência ou autoconsciência em IA são complexos e filosoficamente espinhosos, sem consenso técnico. Ele defende uso cauteloso, com monitoramento colaborativo entre empresas, pesquisadores e reguladores para minimizar riscos e ampliar benefícios de maneira responsável agora.