Skip to main content

Uma lupa destaca o logotipo e o texto"pipefy" em uma aba de navegador da web. Também são visíveis ícones de outras abas ou extensões, incluindo YouTube, BP e configurações de som. (IA)

O avanço da inteligência artificial (IA) nas rotinas corporativas tem levantado questionamentos sobre o uso ético e seguro dessa tecnologia, especialmente em relação à segurança e privacidade de dados. No contexto dessa discussão, estão os agentes de IA e, segundo o relatório “AI Agents Report 2025”, desenvolvido pelo ecossistema Distrito, 27% das empresas que já adotaram esses sistemas autônomos em suas atividades compartilham de preocupações em relação à segurança da informação.

Apesar do alerta, empresas como a plataforma de automação de processos Pipefy, demonstram que é possível estabelecer AI Agents a partir de padrões mais rigorosos de privacidade e segurança, usando as informações geradas apenas para criar respostas contextuais, no momento da interação, mantendo a confidencialidade.

O Fórum Econômico Mundial (WEF, na sigla em inglês) lançou recentemente o “Global Cybersecurity Outlook 2025”, estudo sobre a evolução da segurança cibernética e seus desafios. Nele, 71% dos especialistas em segurança alertam que as pequenas empresas globais atingiram um ponto crítico em sua capacidade de se proteger contra os crescentes riscos digitais.

Leia mais: Zup lança laboratório de inovação em parceria com MIT, UFPE e ICT

No Brasil, o desafio se torna ainda mais significativo, visto que foram registrados uma média de 2.754 tentativas de ciberataques semanais durante o segundo trimestre do ano passado. Em comparação ao mesmo período de 2023, houve um aumento de 67%, segundo um relatório da Check Point Research.

Daniele Gemignani, CTO da Pipefy, acredita que é preciso equilibrar três pilares para que todas as empresas – pequenas ou grandes – consigam utilizar os agentes de IA de forma segura e justa: investir em inovação, trazendo tecnologia relevante para os times; segurança, protegendo os dados contra vazamentos e ataques; além de privacidade, com a garantia de que as informações dos usuários não sejam mal utilizadas.

“Isso é possível quando deixamos a IA mais transparente, explicando como ela toma decisões, e também quando criamos regras claras e leis que definem o que é certo e errado no uso da tecnologia. Outro ponto é investir em proteção digital, com a utilização de ferramentas contra falhas e vazamentos de informação. Como a IA ainda é uma tecnologia nova, o mercado ainda está aprendendo e se adaptando para que seu uso seja ético e ainda mais seguro”, explica Daniele.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Close Menu

Wow look at this!

This is an optional, highly
customizable off canvas area.

About Salient

The Castle
Unit 345
2500 Castle Dr
Manhattan, NY

T: +216 (0)40 3629 4753
E: hello@themenectar.com