Skip to main content

A cena mostra um ambiente escuro com silhuetas de pessoas em primeiro plano, sugerindo um espaço de evento ou conferência. Ao fundo, há um grande painel branco com a palavra “ANTHROPC” escrita em letras maiúsculas pretas, ocupando a maior parte da tela. A iluminação destaca fortemente o painel, criando contraste com as figuras sombreadas à frente. A composição transmite uma atmosfera moderna e tecnológica, associada à marca Anthropic, conhecida por atuar no setor de inteligência artificial.

A Anthropic decidiu limitar o acesso ao seu novo modelo de inteligência artificial (IA), o Claude Mythos Preview, diante de preocupações sobre o potencial uso indevido da tecnologia em ataques cibernéticos. A iniciativa marca uma abordagem mais cautelosa no avanço da IA, especialmente em áreas sensíveis como segurança digital.

O modelo foi desenvolvido com alta capacidade de identificar vulnerabilidades e falhas em sistemas de software, uma habilidade que pode tanto fortalecer a defesa cibernética quanto, se mal utilizada, abrir espaço para exploração por hackers.

Para evitar riscos, a Anthropic optou por liberar o Claude Mythos apenas para um grupo seleto de empresas, incluindo gigantes como Microsoft, Amazon, Apple e outras companhias de infraestrutura e segurança digital. Ao todo, mais de 40 organizações participam da iniciativa.

Essas empresas integram o Project Glasswing, um programa criado para testar o uso da IA na identificação e correção de falhas em sistemas críticos. A proposta é preparar o mercado para um cenário em que modelos com capacidades avançadas em cibersegurança se tornem mais comuns.

Leia mais: IA explicável e observabilidade de LLMs estarão em metade das implementações até 2028

Equilíbrio entre avanço e risco

A decisão de restringir o modelo foi resultado de debates internos sobre os riscos envolvidos. Executivos da empresa destacam que o objetivo é oferecer uma vantagem inicial para defensores cibernéticos, sem expor a tecnologia a usos maliciosos.

A preocupação não é teórica. Informações sobre as capacidades do modelo vieram à tona antes do anúncio oficial, gerando reações no mercado e levantando alertas sobre o impacto potencial dessas ferramentas.

Capacidade técnica e implicações

O Claude Mythos Preview se destaca por encontrar vulnerabilidades difíceis de detectar, incluindo falhas críticas em sistemas amplamente utilizados. Em um dos testes, o modelo identificou um bug antigo em um sistema operacional focado em segurança, evidenciando o nível de sofisticação alcançado.

Apesar disso, a Anthropic afirma que o modelo não foi treinado exclusivamente para cibersegurança. Seu desempenho é resultado da evolução geral em capacidades de programação e raciocínio, o que amplia ainda mais o debate sobre os limites e aplicações dessas tecnologias.

Relação com governos e regulação

A empresa também mantém diálogo com órgãos governamentais dos Estados Unidos sobre os riscos e aplicações do modelo, incluindo entidades ligadas à segurança cibernética e padronização de IA.

O movimento ocorre em um momento em que cresce a pressão por maior controle e governança sobre sistemas avançados de inteligência artificial, especialmente aqueles com potencial de impacto direto em infraestrutura crítica.

Siga oIT Forum no LinkedIn e fique por dentro de todas as notícias!

Close Menu

Wow look at this!

This is an optional, highly
customizable off canvas area.

About Salient

The Castle
Unit 345
2500 Castle Dr
Manhattan, NY

T: +216 (0)40 3629 4753
E: hello@themenectar.com