A Inteligência Artificial (IA) está se expandindo rapidamente no Brasil e na América Latina, mas a confiança e o conhecimento sobre essa tecnologia não acompanham o mesmo ritmo. Essa disparidade está gerando o fenômeno conhecido como “shadow AI”, que se refere ao uso de ferramentas de IA sem a supervisão adequada dos departamentos de TI das empresas. A solução para esse problema não se limita a fortalecer os controles de governança; é fundamental conquistar a confiança através de uma IA responsável, proteção de dados e experiências otimizadas.
A IA generativa, embora represente um grande potencial de transformação, também introduz riscos significativos se implementada sem critérios claros. Um estudo recente da Dell Technologies revelou que, no Brasil, 57% dos funcionários admitem não entender completamente como implementar a IA generativa de forma segura, enquanto 93% das organizações esperam que ela fortaleça suas operações de segurança. Essa combinação de altas expectativas e capacidades limitadas cria um cenário desafiador.
O “shadow AI” surge quando as soluções corporativas não conseguem acompanhar as necessidades dos usuários. Colaboradores buscam ferramentas de IA por conta própria para realizar tarefas, abrindo brechas de segurança e dificultando a rastreabilidade e a conformidade. Mesmo quando as empresas investem em capacitação e promovem o uso da IA, muitos funcionários continuam utilizando ferramentas pessoais, pois essas oferecem soluções mais rápidas e fáceis de usar.
O principal problema reside nos custos ocultos associados a essa prática: credenciais fora do perímetro de segurança, dados sensíveis desprotegidos e resultados difíceis de auditar. No Brasil, a maioria das organizações enfrenta dificuldades para integrar a segurança à sua estratégia, e para 83% delas, equilibrar segurança e inovação é um desafio. Além disso, a pressão para avançar com a IA, utilizando bases de dados seguras, levanta preocupações relacionadas à privacidade, ao tratamento de informações sensíveis e à preparação dos dados.
Diante desse cenário, a confiança se torna um elemento crucial para impulsionar a inovação em IA. Sem confiança, as organizações hesitam em explorar todo o potencial da tecnologia. No Brasil, 92% das organizações enfrentam obstáculos para adotar a IA generativa, sendo a segurança dos dados e a falta de experiência interna os principais impedimentos. Uma estratégia que combine governança, capacitação e uma experiência clara pode mitigar riscos e transformar a IA corporativa em uma solução mais útil, segura e confiável do que as alternativas informais.
É essencial estabelecer princípios éticos, uma governança bem definida e monitorar riscos como vieses, privacidade e segurança com métricas constantes. Garantir a conformidade com as normas e comunicar de forma transparente o uso dos dados e os controles disponíveis para os usuários também são medidas importantes. A confiança na IA não se impõe, mas sim se constrói, e as organizações que priorizam a experiência do usuário, a proteção de dados e a transparência estão no caminho certo para uma IA confiável. As pessoas são fundamentais nessa transformação: com a formação adequada, ferramentas claras e espaços de participação, as equipes podem se tornar aliadas estratégicas da segurança.
Fonte: forbes.com.br
