Uso de IA – A TrendAI divulgou um estudo que aponta um cenário de crescente pressão interna e competitiva para a adoção de inteligência artificial nas empresas, frequentemente acima de preocupações com segurança e conformidade.
O levantamento, intitulado “Securing the AI-Powered Enterprise”, ouviu 3.700 líderes de negócios e de TI em todo o mundo e revelou que 67% dos entrevistados já se sentiram pressionados a aprovar o uso de IA, mesmo diante de riscos conhecidos. Entre esses, um em cada sete classificou tais preocupações como “extremas”, mas ainda assim optou por seguir com a implementação para não perder competitividade ou atender demandas internas.
LEIA: IA testa ferramenta contra usuários com tendências violentas
Para Rachel Jin, Chief Platform & Business Officer e Head da companhia, o desafio não está na falta de percepção sobre os riscos, mas na capacidade de enfrentá-los.
“As organizações não carecem de consciência sobre os riscos, mas sim das condições necessárias para gerenciá-los. Quando a adoção é impulsionada pela pressão competitiva, e não pela maturidade da governança, cria-se um cenário em que a IA é incorporada a sistemas críticos sem os controles necessários para garantir seu uso seguro. Este estudo reforça nosso foco em ajudar as organizações a gerar resultados concretos com IA, ao mesmo tempo em que mantêm os riscos de negócio sob controle.”
Governança frágil e uso não autorizado ampliam vulnerabilidades
Além da pressão pela adoção, o estudo destaca falhas estruturais na governança e indefinições sobre responsabilidades na gestão de riscos ligados à IA. Em diversos casos, as equipes de segurança atuam de forma reativa a decisões estratégicas tomadas de cima para baixo.
Esse contexto favorece a criação de soluções improvisadas e o uso de ferramentas não autorizadas, fenômeno conhecido como “shadow AI”. Paralelamente, pesquisas recentes de ameaças da TrendAI™ indicam que cibercriminosos já utilizam inteligência artificial para automatizar processos de reconhecimento, acelerar campanhas de phishing e reduzir barreiras de entrada para ataques, ampliando tanto a escala quanto a velocidade das ofensivas.
Empresas avançam mais rápido do que conseguem proteger
Os dados apontam um descompasso crescente entre a ambição das empresas e sua capacidade de controle. Segundo o estudo, 57% afirmam que a IA evolui mais rápido do que conseguem proteger, enquanto 64% relatam ter apenas confiança moderada na compreensão dos marcos legais que regem a tecnologia.
A maturidade em governança ainda é limitada: apenas 38% das organizações possuem políticas abrangentes de IA já implementadas. Muitas outras ainda estão em fase de desenvolvimento. Além disso, 41% apontam a falta de clareza regulatória e de padrões de conformidade como um obstáculo relevante.
Na prática, isso indica que a inteligência artificial está sendo incorporada às operações corporativas antes mesmo da consolidação de regras claras para seu uso.
Confiança em IA autônoma ainda é restrita
O estudo também mostra que a confiança em sistemas mais avançados, como a chamada IA autônoma (agentic AI), ainda está em construção. Menos da metade dos entrevistados (48%) acredita que esse tipo de tecnologia trará melhorias significativas para a ciberdefesa no curto prazo.
Entre os principais riscos apontados, 44% das empresas destacam o acesso a dados sensíveis como a principal ameaça. Outros 36% alertam para o risco de comandos maliciosos comprometerem sistemas, enquanto 33% citam o aumento da superfície de ataque para cibercriminosos. A mesma proporção também demonstra preocupação com abusos relacionados ao status de confiança atribuído à IA e com a execução autônoma de código.
Além disso, 31% admitem não ter visibilidade ou capacidade de auditoria sobre esses sistemas, o que levanta dúvidas sobre como monitorar ou intervir após sua implementação.
Cerca de 40% das organizações defendem a criação de mecanismos de desligamento emergencial, conhecidos como “kill switch”, para interromper sistemas em caso de falhas ou uso indevido. Ainda assim, quase metade das empresas não possui posição definida sobre o tema, evidenciando a falta de consenso sobre como manter o controle em cenários críticos.
Rachel Jin reforça que a IA autônoma inaugura uma nova categoria de risco para as organizações.
“Nosso estudo mostra que as preocupações já são claras, desde a exposição de dados sensíveis até a perda de supervisão. Sem visibilidade e controle, as empresas estão implementando sistemas que não compreendem totalmente nem conseguem governar, e esse risco tende a aumentar à medida que a adoção avança, caso nenhuma ação seja tomada”, afirma.
(Com informações de TI Inside)
(Foto: Reprodução/Freepik/Azur)


