Portal Making Of

A outra face IA: os perigos ocultos para as empresas

Toni Hebert

Por Toni Hebert*

Quando se fala em inovação, e principalmente, nas manchetes do mundo corporativo, a Inteligência Artificial (IA) é a estrela da vez. Incontestável. O assunto gira em torno de aumento de produtividade, redução de custos e otimização de tarefas. As situações e aplicações atuais, até pouco tempo, poderiam ser classificadas como ficção científica. E, de fato, a IA tem esse poder transformador. Contudo, com a minha vivência em Risk Advisory Services (RAS), recomendo um olhar além do brilho superficial dessas funcionalidades.

Neste momento de euforia é preciso coragem, mas alguém precisa dizer: há riscos! E eles são significativos. Caso negligenciados, podem não apenas frear o avanço, mas causar danos substanciais às empresas. A corrida pela implementação da IA é intensa, mas a gestão dos seus riscos, muitas vezes, fica em segundo plano. Muitas empresas só irão parar para pensar nisso depois que algo acontecer. Correr para aproveitar tudo que a IA oferece neste momento sem pensar se haverá consequência é o mesmo que construir uma casa sem pilares. Uma hora desmorona.

E quais são esses perigos? A resposta não é simples, uma vez que este risco é multifacetado e exige uma abordagem estratégica. À medida que a IA se integra aos sistemas críticos, ela se torna um novo vetor de ataque. Esses modelos podem ser envenenados com dados maliciosos ou manipulados para produzir resultados indesejados. A segurança dos dados usados para treinamento e o acesso aos próprios modelos se tornam pontos vulneráveis críticos que exigem defesas robustas.

A privacidade e confidencialidade de dados é um dos pontos mais sensíveis. A IA se alimenta de dados e o uso indevido, a coleta excessiva ou a falha na anonimização de informações corporativas ou dados pessoais podem resultar, a exemplo, em violações de privacidade e em multas pesadas, especialmente com a LGPD e outras legislações, além de potencial desgaste da imagem reputacional junto aos clientes.

Agora, a maior parte dos problemas pode vir da falta de transparência. Muitos modelos de IA, especialmente os mais complexos como as redes neurais profundas, operam como verdadeiras caixas-pretas. É difícil entender como chegam a certas decisões. Essa falta de explicabilidade dificulta a auditoria, a correção de erros e a conformidade regulatória, gerando desafios éticos e de responsabilidade.

Além dos riscos tecnológicos, há um aspecto que pode mudar a forma como profissionais de diversos setores atuam. E isso pode ser perigoso. Como o uso da IA traz uma série de facilidades para os usuários, ela pode causar uma dependência excessiva. Não pode existir nada pior do que a confiança cega em uma tecnologia. Isso pode levar, sem nenhum exagero, a atrofia de habilidades críticas.

Se o sistema falhar, seja por um erro de programação, dados corrompidos ou outro aspecto, é preciso ter um humano pronto para intervir. Caso o profissional destacado para esta tarefa esteja “viciado” nas facilidades da IA, é bem provável que ele não observe os pontos de ruptura e erros. A capacidade de intervenção humana não pode nunca estar comprometida. As consequências podem ser catastróficas.

 

Como minimizar os riscos

A primeira coisa importante quando falamos de minimizar riscos é que não existe uma fórmula mágica, eles não serão extintos com uma só ação. É um conjunto de coisas que vai levar ao aumento da segurança. É um processo contínuo de governança e vigilância.

A governança de dados é essencial. Ela deve vir, inclusive, antes da implementação da IA. É importante investir em qualidade, privacidade e segurança. Isso inclui políticas claras de coleta, armazenamento, uso e descarte, além de estratégias de anonimização e criptografia.

Transparência, nem precisava dizer, também é um pré-requisito. É preciso desenvolver ou adotar modelos de IA mais “explicáveis”. E o que significa isso? A “caixa-preta” é obrigatória para compreender as razões por trás das decisões da IA. Junto com isso devem ser desenvolvidas políticas claras. É preciso estabelecer diretrizes éticas claras que guiem o desenvolvimento e a implementação de todas as soluções de IA da empresa. Devem abordar vieses, responsabilidade, privacidade e demais impactos.

Implementar auditorias regulares nos sistemas de IA, desde os dados de treinamento até os algoritmos e os resultados também é algo que precisa estar no radar de qualquer projeto.

A IA é o futuro. Sem dúvida, mas o verdadeiro valor e a sustentabilidade de sua adoção não estão apenas na capacidade de inovar, mas na maturidade e na disciplina com que as empresas irão adotar, sempre mantendo o gerenciamento de riscos atualizado. Negligenciar essa outra face da inovação é um erro que nenhuma organização pode se dar ao luxo de cometer. E quem entender isso primeiro tem muito mais chances de terminar essa corrida na liderança.

 

*Toni Hebert é sócio líder de Risk Advisory Services da BDO

Compartilhe esses posts nas redes sociais:

NaTelinha e Talk TV lançam canal no YouTube

O NaTelinha, veículo especializado em jornalismo de entretenimento digital, um dos primeiros parceiros do UOL, se associa, nesta data, aos estúdios Talk TV em São Paulo, para produção

SBT News contrata Celso Freitas

O apresentador Celso Freitas, um dos nomes mais respeitados da história do telejornalismo, é o mais novo contratado para o canal de notícias multiplataforma SBT

Avaí escolhe Pessi para recomeçar

Noite de decisão azurra  O advogado Bernardo Pessi foi eleito novo presidente do Avaí para o mandato de 2026 a 2029. Com 920 votos, contra

Leia mais