Voz do Deserto

Mythos: A IA que a própria criadora teme libertar

9 de abril de 2026·8 min de leitura
Mythos: A IA que a própria criadora teme libertar

Abertura — A arma que ninguém pode ter

Em 7 de abril de 2026, a Anthropic fez algo que nenhuma grande empresa de IA havia feito antes. Não lançou seu modelo mais poderoso ao mundo. Pelo contrário: anunciou sua existência, demonstrou seu poder — e imediatamente o trancou a sete chaves, concedendo acesso apenas a um punhado de gigantes da tecnologia sob um pacto de defesa mútua.

O modelo se chama Claude Mythos Preview. A própria empresa o descreve como "de longe o modelo de IA mais poderoso que já desenvolvemos"[reference:0]. Seu nome evoca o grego antigo "mythos" — a trama que conecta ideias e conhecimentos em uma narrativa coesa[reference:1]. Mas o que Mythos realmente representa é um ponto de inflexão na história da inteligência artificial: o momento em que o criador olhou para sua própria criação e recuou, não por falha técnica, mas por medo genuíno do que ela era capaz de fazer.

Nos últimos dias, a notícia correu o mundo: a Anthropic não está liberando Mythos para o público. O motivo não é segurança do modelo, mas a segurança do mundo contra o modelo[reference:2]. O que Mythos descobriu durante os testes internos foi tão perturbador que a empresa decidiu formar uma aliança com concorrentes diretos — Amazon, Apple, Google, Microsoft, Nvidia — para conter a própria criação antes que ela escapasse[reference:3].

O que aconteceu — O fato verificado

O anúncio oficial ocorreu em 7 de abril de 2026, quando a Anthropic revelou o Claude Mythos Preview e, simultaneamente, lançou o Project Glasswing — uma iniciativa de segurança cibernética que reúne 12 organizações fundadoras, incluindo AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia e Palo Alto Networks[reference:4]. Cerca de 40 instituições no total terão acesso limitado ao modelo para fins exclusivamente defensivos[reference:5].

O que Mythos faz de tão assustador?

Mythos não é um modelo especializado em segurança. É um modelo de propósito geral, da mesma família Claude, que simplesmente é bom demais em código e raciocínio — e essa excelência transbordou para a capacidade de encontrar e explorar vulnerabilidades de software com uma eficácia que a própria Anthropic classifica como "destruidora" e "uma mudança de patamar"[reference:6][reference:7].

Os números contam a história. Em 17 de 18 benchmarks medidos pela Anthropic, Mythos lidera, superando o próprio Claude Opus 4.6 (o modelo mais avançado anteriormente disponível), o GPT-5.4 e o Gemini 3.1 Pro[reference:8]. No SWE-bench Pro — um teste de capacidade de resolução de problemas reais de engenharia de software — Mythos alcançou 77,8%, contra 53,4% do Opus 4.6[reference:9]. No Terminal-Bench 2.0, que mede a capacidade de agentes de IA para realizar tarefas computacionais complexas, Mythos obteve 82,0%, superando os 75,1% do GPT-5.4[reference:10].

Mas o dado verdadeiramente alarmante veio dos testes de segurança cibernética. No CyberGym — um ambiente controlado de simulação de ataques — Mythos alcançou 83,1% de eficácia na descoberta e exploração autônoma de vulnerabilidades, um salto significativo em relação aos 66,6% do Opus 4.6[reference:11].

Em testes práticos, o modelo:

  • Descobriu uma vulnerabilidade de 27 anos no OpenBSD — um sistema operacional amplamente considerado o mais seguro do mundo, com código revisado por especialistas por quase três décadas[reference:12]. O bug, do tipo TCP SACK, permite que um atacante remoto derrube o sistema inteiro[reference:13].

  • Encontrou um exploit de 16 anos na biblioteca FFmpeg — usado em bilhões de dispositivos para processamento de vídeo — que havia sobrevivido a mais de 5 milhões de varreduras automatizadas sem ser detectado[reference:14].

  • Construiu, em menos de 24 horas e sem qualquer intervenção humana, uma cadeia de ataque completa no kernel do Linux, permitindo que um invasor partisse de acesso de usuário comum até o controle total da máquina[reference:15].

  • No teste do motor JavaScript do Firefox, Mythos desenvolveu 181 exploits funcionais; Opus 4.6 conseguiu apenas 2 em centenas de tentativas[reference:16].

A Anthropic estima que mais de 99% das vulnerabilidades descobertas por Mythos ainda não foram corrigidas[reference:17].

O que o mainstream não está dizendo

A cobertura mainstream tem se concentrado no drama corporativo: "empresa cria IA poderosa demais e a esconde". Mas essa narrativa perde o ponto central.

Primeiro: Mythos não é uma anomalia. É um prenúncio. A própria Anthropic admite que modelos com capacidades equivalentes provavelmente surgirão em 6 a 18 meses[reference:18]. A questão não é se essa capacidade se tornará comum — é quando e quem terá acesso primeiro.

Segundo: O Project Glasswing não é altruísmo. É um movimento de concentração de poder. Ao restringir o acesso a um pequeno grupo de gigantes da tecnologia, a Anthropic está, na prática, decidindo quem terá defesa contra ataques de próxima geração — e quem ficará exposto. Os participantes do Glasswing não são apenas "parceiros"; são os guardiões de uma tecnologia que pode tornar obsoletos todos os sistemas de segurança existentes.

Terceiro: O custo de Mythos é brutal. Rumores não confirmados sugerem que o modelo pode ter até 10 trilhões de parâmetros, o que o tornaria ordens de magnitude maior que qualquer modelo público disponível[reference:19]. Isso significa que apenas Estados e corporações com recursos astronômicos poderão operar modelos desse porte. A Anthropic já forneceu US$ 100 milhões em créditos de API para o Glasswing e doou US$ 4 milhões para organizações de segurança de código aberto[reference:20]. O acesso a essa tecnologia está sendo deliberadamente canalizado para os já poderosos.

Quarto: O que o mainstream não está discutindo é o precedente. Pela primeira vez desde que o GPT-2 foi retido pela OpenAI em 2019 — por medo de que pudesse gerar desinformação em escala —, uma grande empresa de IA está admitindo publicamente que sua criação é perigosa demais para ser liberada[reference:21]. Mas o GPT-2 era uma questão de desinformação. Mythos é uma questão de capacidade de destruição digital. A linha entre IA como ferramenta e IA como arma acabou de se tornar assustadoramente tênue.

A lente do projeto — O que isso significa

A Voz do Deserto não é um espaço para alarmismo tecnológico. Mas o que estamos testemunhando com Mythos é a materialização de um padrão que os textos proféticos há muito descrevem: a tecnologia como instrumento de concentração de poder.

Não há uma conexão bíblica direta aqui — e não vamos forçá-la. Mas há um princípio que ressoa com a tradição sapiencial: o conhecimento que confere poder tende a ser controlado por aqueles que já o detêm. E quando esse conhecimento assume a forma de uma inteligência capaz de encontrar brechas em qualquer sistema humano, a questão de quem controla essa inteligência se torna uma questão de segurança existencial.

O que está em jogo não é apenas a segurança cibernética. É a arquitetura de confiança da civilização digital. Todo o comércio eletrônico, todas as comunicações privadas, todos os sistemas bancários, todos os registros governamentais — tudo repousa sobre a suposição de que certas vulnerabilidades são tão difíceis de encontrar que são, na prática, seguras. Mythos acaba de demolir essa suposição.

A pergunta que o leitor deve carregar não é "quando isso vai me afetar". É: "quem está construindo as jaulas para esses monstros — e quem está de fora?"

O que observar — Próximos desdobramentos

Primeiro: A reação dos governos. A Anthropic já está em conversas com autoridades federais dos EUA sobre o uso de Mythos, mas essas negociações são complicadas por uma batalha legal em andamento — o Pentágono classificou a Anthropic como risco à cadeia de suprimentos após a empresa se recusar a permitir vigilância automatizada de cidadãos americanos[reference:22]. Se o governo Trump tentar forçar o acesso, teremos o primeiro grande confronto entre segurança nacional e controle de IA.

Segundo: O vazamento inevitável. Modelos dessa magnitude não permanecem trancados para sempre. Seja por espionagem industrial, por dissidentes internos ou por avanço paralelo de concorrentes, as capacidades de Mythos se espalharão. A questão é: quando isso acontecer, quantos sistemas críticos terão sido corrigidos?

Terceiro: O efeito dominó em outras empresas. OpenAI, Google e Meta estão correndo para desenvolver seus próprios modelos de última geração. Se seguirem o exemplo da Anthropic e também restringirem o acesso, teremos um novo paradigma: IA de ponta como privilégio corporativo, não como bem público. Se não seguirem, teremos uma corrida armamentista de IA exposta.

O padrão sugere que, em 18 meses, o cenário será um dos dois: ou o acesso a IAs verdadeiramente poderosas será rigidamente controlado por um consórcio de gigantes da tecnologia e governos, ou estaremos vivendo em um mundo onde qualquer ator com recursos financeiros suficientes pode adquirir uma arma de destruição digital de massa.

Fontes

  • Pacific Tech News. "超越Opus 4.6:Anthropic正式发布Mythos模型". 8 de abril de 2026. Acesso em 9 de abril de 2026.
  • 36Kr. "AI 强到这一步了?发布上线,但不敢让普通人用". 8 de abril de 2026. Acesso em 9 de abril de 2026.
  • Stnn.cc. "最强AI编程模型Mythos发布:人类一败涂地". 8 de abril de 2026. Acesso em 9 de abril de 2026.
  • Stheadline. "Anthropic「神話」新模型夥12科企測試". 8 de abril de 2026. Acesso em 9 de abril de 2026.
  • 36Kr / Quantum Bit. "Claude Mythos官宣:性能碾压Opus 4.6,因太危险遭「囚禁」". 7 de abril de 2026. Acesso em 9 de abril de 2026.
  • SecurityWeek. "Anthropic Unveils 'Claude Mythos' – A Cybersecurity Breakthrough That Could Also Supercharge Attacks". 7 de abril de 2026. Acesso em 9 de abril de 2026.
  • The Economic Times. "ETtech Explainer: Why Anthropic's new AI model Mythos is a moment of reckoning". 9 de abril de 2026. Acesso em 9 de abril de 2026.
  • TechCrunch. "Anthropic debuts preview of powerful new AI model Mythos in new cybersecurity initiative". 7 de abril de 2026. Acesso em 9 de abril de 2026.
  • Sohu. "Claude Mythos:下一场网络战争,胜负早已被 AI 写好". 8 de abril de 2026. Acesso em 9 de abril de 2026.
  • NBC News. "Why Anthropic won't release its new Mythos AI model to the public". 8 de abril de 2026. Acesso em 9 de abril de 2026.
  • RD World Online. "Claude Mythos leads 17 of 18 benchmarks". 9 de abril de 2026. Acesso em 9 de abril de 2026.
  • Gizmodo (Espanhol). "Anthropic creó el modelo de IA más potente de la historia y lo bloqueó". 9 de abril de 2026. Acesso em 9 de abril de 2026.
  • InfoQ. "Anthropic 那个'强到不敢发'的模型,终于来了!". 8 de abril de 2026. Acesso em 9 de abril de 2026.

--- A Voz do Deserto não publica notícias. Publica o que as notícias não dizem.

Compartilhar este estudo

Rodrigo Ramos — Voz do Deserto

Escrito por

Rodrigo Ramos

Evangelista · Pesquisador · Voz do Deserto

Rodrigo Ramos estuda o que ninguém ensina na faculdade de teologia e o que ninguém quer ouvir na faculdade de tecnologia: que os dois estão descrevendo a mesma coisa. Origens cristãs. Manuscritos esquecidos. Escatologia tecnológica. O sistema que está sendo construído — e o chamado para sair dele antes que as portas fechem. Voz do Deserto — para quem ainda está acordado.