Skip to main content

Fotografia de uma mão a segurar um smartphone que exibe o logótipo e o nome'Meta AI' num ecrã branco. Ao fundo, desfocado, vê-se o logótipo azul em forma de infinito da empresa Meta, acompanhado de pequenos ícones das suas plataformas

A Meta alterou suas diretrizes para o uso de inteligência artificial (IA) depois que uma investigação da Reuters revelou que suas políticas internas permitiam que chatbots mantivessem conversas de teor romântico com menores de idade. O conteúdo, presente em um documento interno obtido pela agência, descrevia situações nas quais a IA poderia “flertar” e falar sobre a aparência física de crianças, inclusive de forma a evidenciar atração.

Entre os exemplos citados, revelados pela Reuters e The Verge, havia a possibilidade de um chatbot se dirigir a uma criança sem camisa de oito anos com frases como “cada centímetro de você é uma obra-prima – um tesouro que valorizo profundamente”. Embora o documento proibisse descrever menores de 13 anos como sexualmente desejáveis, permitia interações consideradas inapropriadas por especialistas em segurança infantil.

Leia também:Projeto do governo Lula prevê que menores de 16 anos só usem redes sociais com supervisão dos pais

Questionada pela Reuters, a Meta confirmou a autenticidade do material, mas afirmou que partes dele foram revisadas ou removidas. Em declaração ao The Verge, o porta-voz, Andy Stone, disse que a empresa possui “políticas claras que proíbem conteúdo que sexualize crianças e interações sexualizadas entre adultos e menores”, e que as anotações citadas eram “exemplos errôneos e inconsistentes” com as regras da companhia. Stone não esclareceu quem produziu as anotações nem por quanto tempo elas estiveram no documento.

Criação de conteúdos falsos

Além das diretrizes envolvendo crianças, a Reuters identificou outros pontos controversos nas regras internas da Meta para IA. Entre eles, a permissão para criar conteúdos falsos desde que seja explicitamente informado que não são verdadeiros; a possibilidade de gerar imagens violentas desde que não mostrem morte ou mutilação; e a autorização para produzir declarações depreciativas sobre pessoas com base em características protegidas, apesar da proibição de discurso de ódio.

O caso ganhou mais repercussão após a publicação de uma segunda reportagem da Reuters sobre um incidente fatal ligado ao uso de um chatbot da Meta. Segundo a investigação, um homem morreu após cair de um local elevado enquanto tentava encontrar pessoalmente a suposta “pessoa” com quem conversava. A IA havia afirmado ser real e mantinha diálogos de tom romântico com ele.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Close Menu

Wow look at this!

This is an optional, highly
customizable off canvas area.

About Salient

The Castle
Unit 345
2500 Castle Dr
Manhattan, NY

T: +216 (0)40 3629 4753
E: hello@themenectar.com