Casa Branca demonstra preocupação com riscos de segurança da Anthropic
Governo dos EUA intensifica escrutínio sobre modelos de IA da startup devido a potenciais ameaças à segurança nacional e biossegurança.
Imagine criar uma tecnologia tão potente que seus próprios desenvolvedores decidem escondê-la do mundo.
Essa é a premissa do Mythos, o novo modelo de inteligência artificial da Anthropic.
A ferramenta, no entanto, acaba de colocar a startup em rota de colisão direta com a Casa Branca.
O governo dos Estados Unidos demonstrou um nível de preocupação sem precedentes com as capacidades técnicas do sistema.
O motivo? O potencial do modelo para comprometer a segurança nacional e a infraestrutura crítica do país.
O modelo perigoso demais para o público
> "O Mythos é poderoso o suficiente para identificar e explorar vulnerabilidades de cibersegurança em larga escala."
De acordo com a Anthropic, o Mythos não foi projetado para o uso comum.
A empresa afirma que o modelo é capaz de realizar proezas de hacking que superam as defesas atuais.
Por isso, apenas um grupo restrito de 50 empresas e organizações teve acesso inicial ao sistema.
A ideia era permitir que defensores se antecipassem a crises antes que criminosos usassem ferramentas similares.
No entanto, a situação se complicou na última semana.
A startup admitiu que está investigando um possível acesso não autorizado ao modelo.
Esse incidente serviu de combustível para os temores de Washington sobre o controle dessas ferramentas.
Capacidades técnicas do Mythos
O que torna este modelo diferente de um chatbot comum?
- Identificação de falhas: Capacidade de escanear códigos complexos em busca de brechas zero-day.
- Exploração automatizada: Criação de scripts de ataque personalizados para vulnerabilidades encontradas.
- Recursos massivos: O modelo exige uma infraestrutura de computação gigantesca para operar.
- Biossegurança: Riscos teóricos de auxílio na criação de agentes biológicos perigosos.
A Casa Branca entra no jogo
A administração Trump agiu rápido para frear a expansão da tecnologia.
Funcionários do governo se opuseram ao plano da Anthropic de liberar o acesso para mais 70 organizações.
Segundo o Wall Street Journal, a preocupação é puramente de segurança nacional.
Uma fonte indicou que o Mythos consome recursos computacionais que o governo prefere reservar para uso estatal.
A Anthropic negou publicamente que o uso por terceiros prejudicaria a capacidade do governo.
Mesmo assim, o clima de desconfiança entre a startup e o Capitólio só aumenta.
Um histórico de conflitos éticos
A tensão atual não surgiu do nada, mas de um histórico de embates sobre Ethics.
Em fevereiro, o CEO da Anthropic, Dario Amodei, tomou uma decisão polêmica nos bastidores.
Ele se recusou a permitir que os modelos da empresa fossem usados para armas autônomas.
Amodei também barrou o uso da IA para a vigilância em massa de cidadãos americanos.
Essa postura irritou profundamente figuras do alto escalão, incluindo o secretário de defesa Pete Hegseth.
Como resposta, a Casa Branca rotulou a Anthropic como um "risco na cadeia de suprimentos".
Essa etiqueta força contratantes de defesa a cortarem laços com a empresa.
O paradoxo militar
Curiosamente, o exército dos EUA não abandonou totalmente a tecnologia da startup.
Relatórios indicam que modelos da Anthropic foram usados durante operações de bombardeio no Irã.
Isso cria um cenário contraditório onde o governo usa a ferramenta, mas ataca o desenvolvedor.
Emil Michael, CTO do Departamento de Defesa, descreveu o caso Mythos como um "momento de segurança nacional separado".
Para o Pentágono, o controle total sobre o código-fonte parece ser a única saída aceitável.
O risco de biossegurança e ciberataques
O escrutínio sobre a Anthropic também envolve o temor de ataques biológicos.
Modelos de linguagem avançados podem, em teoria, fornecer instruções detalhadas para patógenos.
Embora existam filtros de segurança, o Mythos é visto como potente demais para ser filtrado com eficácia.
O governo teme que, se o modelo vazar, atores estatais adversários ganhem uma vantagem irreversível.
> "A pergunta é se a Anthropic está sendo cautelosa ou apenas fazendo marketing de medo."
David Sacks, conselheiro de IA da Casa Branca, expressou ceticismo sobre as intenções da empresa.
Ele questionou se a startup não estaria agindo como o "menino que gritava lobo".
Para Sacks, se as ameaças do Mythos não se materializarem, a credibilidade da indústria será afetada.
A resposta da Anthropic
Um porta-voz da empresa afirmou que as conversas com o governo continuam produtivas.
A Anthropic defende que a liberação controlada é a forma mais segura de testar limites.
A startup acredita que esconder a tecnologia completamente impede que defesas sejam criadas.
No entanto, a pressão política pode forçar a empresa a mudar seu modelo de negócios.
O que esperar para os próximos meses
O futuro do Mythos depende agora de um acordo de conformidade rigoroso.
- Auditorias externas: O governo deve exigir acesso total aos pesos do modelo.
- Limitação de hardware: Restrições sobre onde e como o modelo pode ser treinado.
- Vigilância de usuários: Monitoramento em tempo real de quem acessa a API do Mythos.
O veredito
O caso da Anthropic marca uma nova era na regulação de tecnologia.
Não se trata mais apenas de privacidade de dados ou direitos autorais.
Estamos falando de ferramentas que o próprio Estado considera armas de potencial destrutivo.
Se o Mythos é realmente tão perigoso quanto dizem, o controle estatal parece inevitável.
Mas se for apenas uma estratégia de marca, o governo pode estar sufocando a inovação por um fantasma.
Qual será o impacto dessa decisão no desenvolvimento de IAs futuras?
A resposta virá com os primeiros testes reais do Mythos em ambiente controlado.
O mundo tech aguarda para saber se estamos diante de uma revolução na segurança ou de um exagero regulatório.
Relacionadas
- Elon Musk prevê que IA superará inteligência humana já em 2025
- Bancos dos EUA reforçam cibersegurança contra ataques de IA, diz Scott Bessent
- Lucro recorde da Amazon é impulsionado por ganho de US$ 16,8 bi com a Anthropic
- IA deve transformar estratégias e desafios das campanhas eleitorais de 2026 no Brasil
