A inteligência artificial já faz parte da rotina de muitas empresas. Ela acelera análises, automatiza processos, apoia equipes técnicas e melhora a produtividade em diferentes áreas do negócio.
Mas essa mesma tecnologia também está sendo explorada por cibercriminosos.
Um relatório recente do Google Threat Intelligence Group, equipe de inteligência de ameaças do Google, mostrou que agentes maliciosos já estão usando IA para apoiar diferentes fases de ataques cibernéticos, incluindo descoberta de vulnerabilidades, desenvolvimento de exploits, automação de operações e tentativa de acesso inicial a ambientes corporativos.
Para empresas, esse cenário reforça um ponto essencial: a segurança digital não pode mais ser tratada apenas como uma responsabilidade técnica. Ela precisa entrar na agenda estratégica da liderança.
IA também está mudando o comportamento dos ataques cibernéticos
Durante muito tempo, ataques hackers dependiam de um alto nível de conhecimento técnico, tempo de pesquisa e esforço manual. Com o avanço dos modelos de IA generativa, parte desse processo pode ser acelerada.
Segundo o Google, criminosos vêm usando IA como uma espécie de “multiplicador de força” para apoiar tarefas como pesquisa de vulnerabilidades, criação de códigos maliciosos, automação de comandos, reconhecimento de alvos e engenharia social.
Isso não significa que qualquer ferramenta de IA seja, por si só, uma ameaça. O problema está no uso indevido da tecnologia por grupos que buscam explorar falhas, automatizar ataques e aumentar a escala das ações criminosas.
Na prática, a IA pode ajudar atacantes a testar hipóteses mais rápido, analisar grandes volumes de informação e identificar padrões que seriam mais difíceis de encontrar manualmente.
O caso do ataque criado com apoio de IA
O Google informou que identificou, pela primeira vez, um agente de ameaça usando uma vulnerabilidade zero-day que teria sido desenvolvida com apoio de IA. O ataque planejado envolvia uma tentativa de exploração em massa para burlar autenticação de dois fatores em uma ferramenta web de administração de sistemas de código aberto.
Uma vulnerabilidade zero-day é uma falha ainda desconhecida pelo fornecedor ou sem correção disponível no momento da descoberta. Por isso, ela representa um risco elevado para empresas, especialmente quando afeta sistemas críticos, ferramentas administrativas ou ambientes conectados à internet.
No caso analisado pelo Google, os pesquisadores identificaram características no código que indicavam uso de IA, como estrutura excessivamente didática, comentários incomuns e até referências inconsistentes geradas pelo próprio modelo.
O ponto mais importante para as empresas não é apenas o ataque em si. É o sinal de maturidade do cibercrime: grupos maliciosos estão usando IA para acelerar a descoberta e a exploração de falhas.
Por que isso preocupa empresas de todos os setores?
Ataques com apoio de IA podem impactar qualquer organização que dependa de sistemas digitais, dados de clientes, plataformas em nuvem, aplicações internas ou ferramentas conectadas.
Isso inclui empresas de tecnologia, serviços financeiros, saúde, educação, varejo, indústria, telecomunicações e setores públicos.
O risco aumenta quando a organização possui ambientes complexos, ferramentas sem atualização, baixa visibilidade sobre acessos, ausência de monitoramento contínuo e pouca maturidade em governança de segurança.
Além disso, o uso de IA por atacantes pode tornar algumas ameaças mais rápidas, personalizadas e difíceis de detectar. Campanhas de phishing, por exemplo, podem ser escritas com mais qualidade, adaptadas ao contexto da vítima e combinadas com dados públicos encontrados na internet.
A autenticação de dois fatores continua importante, mas não é suficiente
A autenticação de dois fatores, também conhecida como 2FA ou MFA, segue sendo uma camada essencial de proteção. Ela reduz o risco de invasões baseadas apenas em senha.
No entanto, o caso analisado pelo Google mostra que nenhuma camada de segurança deve ser tratada como solução única.
Empresas precisam combinar autenticação forte com outras práticas, como gestão de identidade, controle de privilégios, atualização de sistemas, monitoramento de comportamento, resposta a incidentes e treinamento contínuo das equipes.
Quando a segurança depende de uma única barreira, o impacto de uma falha pode ser muito maior.
O papel da liderança na segurança contra ataques com IA
A cibersegurança precisa ser entendida como uma prioridade de negócio. Afinal, um incidente pode gerar paralisação operacional, perda de dados, impacto reputacional, custos legais e danos à confiança dos clientes.
Segundo o relatório Cost of a Data Breach 2025, da IBM, o custo médio global de uma violação de dados foi de US$ 4,44 milhões. O estudo também chama atenção para o risco da adoção de IA sem governança, especialmente em ambientes onde ferramentas são usadas sem supervisão adequada de TI e segurança.
Esse dado reforça a importância de tratar segurança, IA e governança como temas integrados.
Não basta adotar inteligência artificial para ganhar produtividade. É preciso garantir que essa adoção aconteça com políticas claras, controles técnicos, visibilidade e capacitação.
O que esse cenário mostra para as empresas?
O avanço dos ataques hackers com IA mostra que a cibersegurança corporativa entrou em uma nova fase. As ameaças estão mais rápidas, automatizadas e sofisticadas, exigindo das empresas uma visão mais estratégica sobre proteção de dados, governança digital e capacitação das equipes. Mais do que reagir a incidentes, organizações precisam compreender como a inteligência artificial está mudando o comportamento dos cibercriminosos e preparar suas lideranças para tomar decisões mais seguras. Em um mercado cada vez mais digital, proteger sistemas, informações e operações deixou de ser apenas uma responsabilidade técnica: tornou-se uma prioridade de negócio para empresas que desejam crescer com confiança.




