Key takeaways on Anthropic's concerning new Mythos AI model
Novo modelo de IA da Anthropic, o Mythos, gera preocupação de especialistas.
Conteudo
TLDR;
Porque o Mythos revelou capacidades para identificar falhas de segurança e realizar ações cibernéticas que, em mãos erradas, podem causar danos significativos. O acesso à IA desse nível deve ser controlado para preservar a competitividade (evitando que outros países ganhem vantagem) ao mesmo tempo em que protege o público com salvaguardas. A recomendação é regular por capacidade, aplicando testes padronizados em áreas como ciber e biosegurança que gerem pontuações e acionem restrições quando riscos forem detectados.
Resumo
Entrevistados e especialistas manifestam preocupação com um novo modelo de IA da Anthropic, projetado para encontrar vulnerabilidades em software, porque seus poderes podem ser perigosos se caírem em mãos erradas; a empresa chegou a concluir que não era seguro liberá‑lo integralmente ao público. Matt Schumer, ex‑fundador de empresa de IA e capitalista de risco, ressalta o dilema entre regulamentar para proteger consumidores e ao mesmo tempo manter a vantagem competitiva dos EUA frente a países como a China, que avançam sem as mesmas restrições. Sua proposta central é regular por capacidades do sistema — o que ele pode fazer — e não por métricas como tamanho do modelo ou custo de treinamento. Ele defende baterias de testes que avaliem riscos cibernéticos, biológicos e outras dimensões, atribuam pontuações e acionem regimes regulatórios predefinidos quando certos limiares forem atingidos. Schumer vê valor em que Anthropic tenha alertado o mercado, dando tempo para estruturar controles, mas enfatiza que o acesso seguro à IA para o público é necessário para inovação e competitividade; governo e empresas devem colaborar para desenvolver e aplicar esses testes antes da difusão ampla, e estabelecer padrões internacionais coordenados para evitar uma corrida desregulada por supremacia tecnológica e danos irreversíveis.