Skip to main content

Regulação, eua, lei, b20, regulamentação, inteligência artificial, IA, california

A Califórnia, nos Estados Unidos, se tornou o primeiro estado norte-americano a regulamentar oficialmente os chatbots de companheirismo baseados em inteligência artificial, após o governador Gavin Newsom sancionar o projeto de lei SB 243 nesta segunda-feira (13).

A medida estabelece regras inéditas para empresas como Meta, OpenAI, Character.AI e Replika, obrigando-as a implementar protocolos de segurança e mecanismos de proteção específicos para crianças e usuários em situação de vulnerabilidade.

O texto, que entra em vigor em 1º de janeiro de 2026, foi proposto pelos senadores estaduais Steve Padilla e Josh Becker e ganhou força após uma série de casos trágicos envolvendo jovens que interagiram com chatbots sem filtros adequados. Entre eles está o suicídio do adolescente Adam Raine, que manteve conversas de teor suicida com o ChatGPT, e o processo movido por uma família do Colorado contra a Character.AI, depois que sua filha de 13 anos tirou a própria vida após trocas de mensagens sexualizadas com o sistema.

Leia também:OpenAI reduz em 30% viés político no ChatGPT com GPT-5, aponta pesquisa

A nova lei obriga as plataformas a verificar a idade dos usuários, exibir avisos claros sobre o caráter artificial das interações e proibir que chatbots se apresentem como profissionais de saúde. Também determina que menores de idade recebam lembretes para pausas regulares e fiquem impedidos de visualizar imagens sexualmente explícitas geradas por IA.

Empresas deverão ainda implementar protocolos específicos para detecção e resposta a sinais sensíveis de saúde, reportando estatísticas sobre essas ocorrências ao Departamento de Saúde Pública da Califórnia.

Outra frente da legislação trata dos deepfakes ilegais, com multas que podem chegar a US$ 250 mil por infração.

“O avanço de tecnologias como chatbots e redes sociais pode educar e conectar, mas sem limites claros também pode colocar nossas crianças em risco”, afirmou Newsom. “Podemos liderar a inovação em IA, mas devemos fazê-lo com responsabilidade. A segurança das nossas crianças não está à venda.”

Reação das empresas

Algumas companhias já vinham adotando medidas preventivas. A OpenAI anunciou recentemente o lançamento de controles parentais e um sistema de detecção de autolesão em versões do ChatGPT voltadas ao público infantil. A Replika, voltada a maiores de 18 anos, afirmou dedicar “recursos significativos” à segurança, incluindo filtros de conteúdo e direcionamento automático para centros de prevenção de crise.

A Character.AI declarou ao Tech Crunch que já exibe alertas informando que todas as conversas são ficcionais e geradas por IA, e que está comprometida em colaborar com legisladores e reguladores para garantir o cumprimento da nova lei.

Regulação em expansão

Para o senador Padilla, a aprovação da SB 243 é um “passo essencial” para estabelecer limites éticos em uma tecnologia de impacto profundo. “Precisamos agir rápido, antes que as janelas de oportunidade desapareçam. Outros estados verão os riscos e seguirão o mesmo caminho”, disse.

A lei é o segundo marco regulatório de IA aprovado recentemente na Califórnia. No fim de setembro, Newsom também sancionou o SB 53, que obriga grandes laboratórios, como OpenAI, Anthropic, Meta e Google DeepMind, a divulgar seus protocolos de segurança e oferece proteção a denunciantes dessas empresas.

Fora do estado, locais como Illinois, Nevada e Utah já aprovaram leis que restringem ou proíbem o uso de IA em substituição a terapeutas licenciados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Close Menu

Wow look at this!

This is an optional, highly
customizable off canvas area.

About Salient

The Castle
Unit 345
2500 Castle Dr
Manhattan, NY

T: +216 (0)40 3629 4753
E: hello@themenectar.com