Skip to main content

Imagem mostrando a tela de um smartphone com o logotipo da Anthropic em destaque, com letras pretas sobre fundo branco. Ao fundo, é visível um teclado de computador desfocado, em tons escuros e iluminação azulada, criando um contraste com a nitidez do logotipo.

A relação entre o governo dos Estados Unidos e uma das principais empresas de inteligência artificial do país entrou em rota de colisão. A Anthropic, criadora do chatbot Claude, e a Casa Branca estão travando um embate público sobre os rumos da regulação da IA, um conflito que reflete a crescente tensão entre inovação tecnológica e controle governamental.

O ponto de partida foi um ensaio publicado por Jack Clark, cofundador e diretor de políticas da Anthropic, intitulado “Technological Optimism and Appropriate Fear”. No texto, Clark argumenta que parte da comunidade tecnológica está ignorando riscos reais de que a IA possa se tornar uma ameaça existencial à humanidade. Para ele, é preciso reconhecer esses riscos antes de descobrir como “domar a tecnologia e aprender a conviver com ela”.

A resposta veio de David Sacks, responsável pela política de IA da Casa Branca. Em uma declaração contundente, ele acusou a Anthropic de conduzir “uma estratégia sofisticada de captura regulatória baseada no alarmismo”. Sacks sugeriu que o discurso de medo em torno da IA seria, na verdade, uma forma de grandes empresas influenciarem a formulação das regras que devem limitá-las.

Leia também: IA vai provocar disrupção no mercado de trabalho em até 5 anos, prevê CEO da Anthropic

O embate ganhou contornos políticos porque vai além da esfera federal. O governo Biden tem defendido a criação de um marco regulatório nacional unificado, temendo que legislações estaduais distintas criem um labirinto jurídico que possa desacelerar a inovação. Como parte das negociações do chamado Big Beautiful Bill, a Casa Branca apoiou uma proposta de moratória de 10 anos para leis estaduais sobre IA.

A Anthropic se opôs à ideia, classificando a medida como “excessivamente ampla e imprecisa”. Após o fracasso da moratória no Congresso, a empresa passou a apoiar um projeto de lei sobre IA na Califórnia, um dos mais ambiciosos já apresentados nos Estados Unidos. O texto prevê exigências de transparência, segurança e rastreabilidade para sistemas de IA, parâmetros que podem servir de modelo para outros estados.

A disputa evidencia um dilema central na governança da inteligência artificial: até que ponto o governo deve intervir em um setor que evolui em ritmo exponencial? A posição da Casa Branca é a de que a fragmentação das regras por estado ameaça a competitividade americana frente a países como China e União Europeia, que já avançam em legislações de abrangência nacional ou continental.

Para a Anthropic, no entanto, a ausência de limites pode ser ainda mais perigosa. A companhia, que recebeu investimentos bilionários da Amazon e do Google, defende um modelo de regulação adaptativa, capaz de equilibrar incentivos à inovação com salvaguardas éticas e de segurança. Clark tem sido uma das vozes mais ativas em alertar para os potenciais efeitos colaterais da corrida pela IA generativa, de falhas de alinhamento a impactos no mercado de trabalho e na democracia.

Analistas em Washington interpretam o confronto como um sinal de que o debate sobre regulação da IA nos EUA está entrando em uma fase mais madura — e mais politizada. Enquanto o governo busca preservar o dinamismo econômico, empresas como Anthropic tentam moldar as regras para garantir tanto segurança quanto autonomia.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Close Menu

Wow look at this!

This is an optional, highly
customizable off canvas area.

About Salient

The Castle
Unit 345
2500 Castle Dr
Manhattan, NY

T: +216 (0)40 3629 4753
E: hello@themenectar.com