Skip to main content

Patrícia Peck durante o IT Forum Na Mata

“IAs mal treinadas e as pessoas mal treinadas. Quando esta dupla está mal treinada, isso só significa uma coisa: catástrofe”. Foi essa a provocação trazida por Patrícia Peck, PhD, especialista em direito digital e sócia-fundadora do Peck Advogados, durante sua fala no IT Forum Na Mata, que trouxe o debate sobre governança e políticas na era da inteligência artificial (IA).

No início de sua apresentação, Patrícia lembrou que enquanto a população humana já alcançou a marca de oito milhões de pessoas, já são mais de 1,2 bilhão de chatbots ativos no mundo. O cenário global torna obrigatória a definição de regras que irão reger as interações entre pessoas e agentes e programas de IA dentro de organizações.

A advogada, que desde 2014 mantém um laboratório de robótica dentro de seu escritório, contou que, diante da convivência diária entre humanos e agentes sintéticos, decidiu incluir nos códigos de ética corporativos um capítulo específico sobre a relação entre pessoas, robôs e sistemas de inteligência artificial.

“Um robô sem governança é como um colaborador sem código de conduta”, afirmou durante a apresentação no Distrito Itaqui, nesta sexta-feira (24). “Eles precisam estar sujeitos às mesmas regras de integridade, compliance e supervisão.”

Leia mais:“Pessoas usando IA na organização é diferente da organização usar IA”, enfatiza Alexandre Del Rey

Patrícia destacou que o avanço das tecnologias tem exposto empresas a riscos de segurança e responsabilidade jurídica. Para ela, a maior vulnerabilidade não está nas máquinas, mas na forma como as organizações lidam com elas. “Incidentes de IA acontecem não porque a tecnologia é ruim, mas porque foi mal implementada, mal supervisionada ou mal treinada”, disse.

A necessidade de que as inteligências artificiais corporativas sejam treinadas com dados éticos e revisadas periodicamente também é latente, alertou. Patrícia comparou o processo de aprendizagem das máquinas, por exemplo, ao de uma criança. “IA mal treinada é igual criança mal-educada: repete erro, aprende vício e não sabe distinguir o certo do errado”, afirmou.

Ao final, Patrícia defendeu que o Brasil avance em mecanismos de autorregulação antes mesmo da consolidação de uma lei específica para inteligência artificial. Ela propôs que o mercado estabeleça guias de melhores práticas e padrões mínimos de segurança, comparando o momento atual à época em que o cinto de segurança se tornou obrigatório nos carros. “Estamos sem o cinto de três pontas da IA. Falta um modelo de proteção de fábrica que garanta a integridade de todos”, concluiu.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Close Menu

Wow look at this!

This is an optional, highly
customizable off canvas area.

About Salient

The Castle
Unit 345
2500 Castle Dr
Manhattan, NY

T: +216 (0)40 3629 4753
E: hello@themenectar.com