IA caminha mais rápido do que a velocidade da luz?
Anthropic afirma a construção do modelo mais avançado de cibersegurança
23 de abril, 2026

Crédito da Foto: Freepik
O Claude Mythos – modelo avançado de inteligência artificial desenvolvido pela Anthropic – é considerado um dos modelos mais poderosos.
A sua principal capacidade é analisar sistemas informáticos e identificar vulnerabilidades críticas – incluindo falhas desconhecidas pelos profissionais que desenvolvem software e hardware – com uma eficácia que pode superar especialistas humanos. «Escreve código avançado, analisa sistemas complexos, identifica vulnerabilidades e consegue encadear falhas para explorar sistemas».
No entanto, essa mesma capacidade levanta preocupações sérias. Trata-se de uma tecnologia que pode ser utilizada para reforçar a segurança digital, mas também para realizar ciberataques altamente sofisticados.
A própria Anthropic reconhece que, ao ser disponibilizado, poderia ser explorado por hackers ou até por Estados e, consequentemente, iria representar alto risco para as infraestruturas críticas.
Essa foi a razão pela qual o modelo não foi lançado. Está apenas restrito a um grupo limitado de parceiros tecnológicos, no âmbito de um programa fechado com a designação de «Project Glasswing», que tem como objetivo identificar e corrigir vulnerabilidades antes que sejam utilizadas maliciosamente.
Para o diretor científico da Anthropic, Jared Kaplan, este modelo não representa uma rutura total com as versões anteriores, espelha a evolução.
O caso levanta um debate mais amplo sobre os limites do desenvolvimento da IA, dado que o ritmo de desenvolvimento se tem demonstrado, cada vez mais, acelerado, ao ponto de atingir uma velocidade em muito superior à do hardware.
Até que ponto tecnologias muito poderosas podem ou devem ser controladas?
A Anthropic está a “controlar” o modelo e as outras empresas farão o mesmo?
Entretanto, e não havendo respostas a estas questões (por enquanto), o que podemos asseverar é que estrategicamente foi lançado, há uma semana, o Claude Opus 4.7 que se considera uma versão “mais controlada” do Mythos.
Fonte: sapo.pt
No entanto, essa mesma capacidade levanta preocupações sérias. Trata-se de uma tecnologia que pode ser utilizada para reforçar a segurança digital, mas também para realizar ciberataques altamente sofisticados.
A própria Anthropic reconhece que, ao ser disponibilizado, poderia ser explorado por hackers ou até por Estados e, consequentemente, iria representar alto risco para as infraestruturas críticas.
Essa foi a razão pela qual o modelo não foi lançado. Está apenas restrito a um grupo limitado de parceiros tecnológicos, no âmbito de um programa fechado com a designação de «Project Glasswing», que tem como objetivo identificar e corrigir vulnerabilidades antes que sejam utilizadas maliciosamente.
Para o diretor científico da Anthropic, Jared Kaplan, este modelo não representa uma rutura total com as versões anteriores, espelha a evolução.
O caso levanta um debate mais amplo sobre os limites do desenvolvimento da IA, dado que o ritmo de desenvolvimento se tem demonstrado, cada vez mais, acelerado, ao ponto de atingir uma velocidade em muito superior à do hardware.
Até que ponto tecnologias muito poderosas podem ou devem ser controladas?
A Anthropic está a “controlar” o modelo e as outras empresas farão o mesmo?
Entretanto, e não havendo respostas a estas questões (por enquanto), o que podemos asseverar é que estrategicamente foi lançado, há uma semana, o Claude Opus 4.7 que se considera uma versão “mais controlada” do Mythos.
Fonte: sapo.pt
