Logo TecMundo
Segurança

Da visibilidade ao controle: o novo capítulo da segurança em IA

O desafio que antes era apenas “enxergar” o que estava em risco agora evoluiu, não basta ter visibilidade, é preciso governar e controlar, de forma proativa, esse ecossistema cada vez mais complexo.

Avatar do(a) autor(a): Arthur Capella - Colunista

schedule19/10/2025, às 10:00

updateAtualizado em 24/02/2026, às 09:12

Nos últimos anos, acompanhamos a rápida adoção de ferramentas de inteligência artificial em praticamente todos os setores da economia. Essa corrida pela eficiência e pela inovação, no entanto, trouxe consigo uma nova superfície de ataque que cresce em velocidade inédita. O desafio que antes era apenas “enxergar” o que estava em risco agora evoluiu, não basta ter visibilidade, é preciso governar e controlar, de forma proativa, esse ecossistema cada vez mais complexo.

De acordo com pesquisa da Tenable, mais de um terço das equipes de segurança estão identificando o uso de aplicativos de IA em seus ambientes que podem não ter sido provisionados por meio de processos formais. 

smart_display

Nossos vídeos em destaque

Durante um período de 75 dias, entre o final de junho e o início de setembro de 2024, a Tenable encontrou mais de 9 milhões de instâncias de aplicativos de IA em mais de 1 milhão de hosts. O risco à segurança cibernética do uso irrestrito de IA é agravado pelo crescente volume de vulnerabilidades de IA. A Tenable Research encontrou e divulgou diversas vulnerabilidades em soluções de IA incluindo Microsoft Copilot, Flowise e Langflow, entre outras.

Quando cruzamos esse cenário com ambientes de nuvem, o quadro se agrava. Pesquisas mostram que uma parcela significativa das organizações mantém configurações inseguras em workloads de IA. É comum encontrar instâncias com privilégios de root ativados por padrão, buckets de dados acessíveis publicamente e notebooks de machine learning rodando com permissões excessivas. Cada uma dessas falhas representa uma porta aberta para atacantes.

Da reação à prevenção

Historicamente, o papel das equipes de segurança foi reagir a incidentes ou corrigir vulnerabilidades identificadas. Mas a lógica de proteção em ambientes de IA exige uma mudança de mentalidade. O ritmo de evolução e a descentralização do uso de inteligência artificial tornam insuficiente qualquer abordagem puramente reativa.

O que se impõe agora é a capacidade de antecipar riscos. Isso significa ir além da detecção de falhas e estabelecer mecanismos de governança que reduzam drasticamente a exposição, independentemente de onde a IA esteja sendo utilizada ou desenvolvida. É o movimento de sair da visibilidade e alcançar o controle mapeando, monitorando e corrigindo desvios antes que eles comprometam os negócios.

Para os líderes de tecnologia, essa evolução traz benefícios claros. A integração de práticas mais maduras de governança de IA resulta em maior confiança na adoção de novos modelos e aplicações, possibilita acelerar projetos estratégicos sem comprometer a segurança e reforça o alinhamento com exigências regulatórias.

Mais importante, essa mudança posiciona a cibersegurança como elemento habilitador da inovação, não como barreira. Quando há clareza sobre onde estão os riscos e a capacidade de agir sobre eles de forma eficiente, as empresas conseguem explorar o potencial da inteligência artificial com mais ousadia e menos medo.

Estamos diante de uma transformação profunda na forma de encarar a segurança digital. O que antes era um esforço concentrado em fechar brechas visíveis, agora exige também a orquestração de políticas, governança e controle contínuo. É nesse ponto de virada que se define a maturidade da proteção em ambientes de IA.

O futuro das organizações dependerá de quem conseguir equilibrar velocidade de inovação e capacidade de governar riscos. Mais do que nunca, proteger é também viabilizar o crescimento.
 

Perguntas Frequentes

Qual é o novo desafio em segurança de IA mencionado no texto?
O novo desafio em segurança de IA é não apenas ter visibilidade sobre o que está em risco, mas também governar e controlar proativamente o ecossistema de IA, que se torna cada vez mais complexo.
Quais são os riscos associados ao uso irrestrito de IA?
Os riscos associados ao uso irrestrito de IA incluem o aumento das vulnerabilidades de segurança cibernética, como instâncias de IA com privilégios de root ativados por padrão e dados acessíveis publicamente, que podem ser explorados por atacantes.
Como a Tenable contribuiu para a identificação de vulnerabilidades em soluções de IA?
A Tenable Research encontrou e divulgou diversas vulnerabilidades em soluções de IA, como Microsoft Copilot, Flowise e Langflow, ajudando a identificar e mitigar riscos de segurança associados a essas ferramentas.
Por que a abordagem reativa não é mais suficiente em ambientes de IA?
A abordagem reativa não é mais suficiente em ambientes de IA devido ao ritmo acelerado de evolução e à descentralização do uso de inteligência artificial, que exigem uma mudança de mentalidade para uma proteção mais proativa.
star

Continue por aqui