Sete desafios com inteligência AI e segurança de dados, além de dicas para desenvolver resiliência

Na cibersegurança, a AI pode nos ajudar, mas também pode ajudar os criminosos. Aqui estão sete coisas a considerar ao aproveitar a AI para segurança e o que você precisa para resolvê-las.

Challenges with Applying AI to Data Security

image_pdfimage_print

A AI é uma espada e uma proteção na cibersegurança moderna. Ele analisa grandes conjuntos de dados em segundos, sinaliza anomalias antecipadamente e reserva tempo para os defensores agirem. De acordo com uma nova pesquisa do Ponemon Institute, 47% das organizações dos EUA já usam inteligência AI para ajudar a proteger seus ativos mais valiosos: seus dados.

Para entender como as equipes estão construindo resiliência para dados no armazenamento, o Ponemon Institute entrevistou 610 profissionais de TI e segurança para o estudo “O estado da resiliência cibernética”, patrocinado pela Pure Storage. As descobertas mostram que 45% dos profissionais esperam que as tecnologias de segurança baseadas em AI fortaleçam o armazenamento de segurança de dados da organização. Mais da metade (53%) afirma que a AI simplifica a proteção ao lidar com tarefas anteriormente gerenciadas por equipes humanas de maneira mais eficiente e econômica.

No entanto, a AI também apresenta novos riscos à segurança de dados. Metade dos profissionais pesquisados pelo Ponemon Institute citou o envenenamento de dados como a principal ameaça de armazenamento orientada por AI. Outros apontaram para configurações ruins do sistema e configurações incorretas decorrentes da dependência excessiva de AI para gerenciamento de riscos cibernéticos. 

A principal conclusão dessas descobertas: Embora as ferramentas de AI possam ajudar a identificar problemas mais cedo, alcançar a verdadeira resiliência cibernética depende de quão bem você pode proteger e recuperar dados. Com isso em mente, vamos examinar sete desafios de inteligência AI e segurança de dados, além de exemplos de maneiras práticas de aumentar a resiliência.

1. A AI não eliminará o elemento humano na cibersegurança

AI pode identificar padrões e acelerar a triagem, mas o julgamento ainda depende das pessoas: o que investigar, quando escalar e como conter ameaças. Com os invasores usando AI artificial generativa para criar iscas mais convincentes, o maior risco para a segurança de dados não é “AI substituindo as pessoas”, mas as equipes confiam demais na automação sem o treinamento, as estruturas de decisão e os manuais de incidentes necessários.

Dicas para criar resiliência

  • Mantenha as pessoas encarregadas dos resultados. Use o monitoramento por AI para sinalizar atividades incomuns, como exclusões inesperadas ou movimentos de dados atípicos, mas exija análise humana antes de acionar etapas de contenção ou respostas importantes.
  • Treine para escalonamento. Certifique-se de que a equipe saiba quando encaminhar alertas, como interpretar e usar insights orientados por AI e quem tem autoridade final durante um incidente.
  • Ensaie a resposta a incidentes. Execute exercícios de simulação que combinam alertas de AI com decisões humanas, para que as equipes pratiquem contenção e comunicação em condições do mundo real.

2. Mesmo com a AI, não há estratégia avançada em segurança

A AI é valiosa para avisos antecipados, como sinalizar leituras, exclusões e transferências incomuns, mas não mantém os dados seguros nem coloca você de volta em um estado estável sozinho. Controles de segurança de dados sólidos reduzem a probabilidade de perda, e práticas disciplinadas de resiliência cibernética garantem que você possa se recuperar rapidamente quando ocorre um incidente. 

Dicas para desenvolver resiliência

  • Fortaleça a camada de dados. A cibersegurança moderna tem tudo a ver com camadas. Aplique permissões de privilégios mínimos, proteja cofres de chaves e bloqueie consoles de armazenamento para evitar uso indevido ou adulteração.
  • Mantenha cópias limpas, indeléveis e resistentes a adulterações. Mantenha cópias protegidas de configurações e conjuntos de dados críticos e ensaie restaurações para garantir que você possa atender com segurança aos objetivos de ponto de recuperação (RPO, Recovery Point Objective) e objetivos de tempo de recuperação (RTO, Recovery Time Objective). Isso ajudará você a se defender melhor contra adulteração de backup, criptografia de Ransomware e exclusões acidentais ou internas.
  • Contenha danos por design. Segmente redes e aplique a separação rigorosa de tarefas para evitar que uma única violação se espalhe por todo o seu ambiente.

Descubra como a resiliência em camadas protege a integridade de dados e facilita a recuperação rápida em qualquer escala.

3. A AI ainda é mais reativa do que preventiva

A AI é poderosa para revelar riscos de armazenamento de dados, como leituras, exclusões ou movimentos incomuns de dados. No entanto, isso não impede as causas, como o clique inicial de phishing ou um token roubado. A boa notícia é que, de acordo com o estudo “Estado da resiliência cibernética”, a AI está ajudando a reduzir as cargas de trabalho manuais para as equipes de segurança. Isso significa que os profissionais têm mais largura de banda para investir em medidas preventivas, como configurações mais fortes, treinamento de funcionários e fortalecimento rotineiro do sistema.

Dicas para desenvolver resiliência

  • Feche portas fáceis. Mantenha os sistemas corrigidos, remova contas obsoletas e feche caminhos de acesso não usados para evitar que ataques simples ganhem impulso. Combine isso com treinamento de conscientização de segurança que ensina os funcionários a reconhecer phishing, links maliciosos e outros truques de engenharia social, transformando usuários em defensores da linha de frente.
  • Coloque um salto de velocidade na frente de mudanças arriscadas. Adicione uma breve pausa e uma revisão rápida para ações que podem apagar dados ou enfraquecer proteções, como excluir backups ou alterar retenção/chaves. Rótulos claros e uma pequena lista de verificação ajudam as pessoas a saber que estão em um território arriscado.
  • Recupere-se no piloto automático depois de um “go” humano. Antes de implementar atualizações importantes ou alterações de políticas, faça snapshots indeléveis, mantenha um plano de reversão de uma página e realize exercícios de restauração rápida nos dados de amostra para garantir que todos entendam como retornar a um estado seguro.

4. Os modelos de AI precisam evoluir ou as chamadas de risco ruins

A AI só ajuda se aprender com dados limpos e atuais. Deixados desmarcados, os modelos de AI podem se desviar, sinalizando atividade normal como padrões novos suspeitos ou ausentes. E, como sabemos no estudo do Ponemon Institute, os profissionais de TI e segurança consideram a intoxicação deliberada de dados, que corrompem dados ou rótulos de treinamento, como o risco mais significativo de armazenamento orientado por AI.

Dicas para desenvolver resiliência

  • Atualize modelos com dados confiáveis. Retreine modelos regularmente usando conjuntos de dados aprovados e representativos e observe a origem dos dados. Deixe de lado qualquer coisa que você não consiga suportar.
  • Preste atenção aos sinais. Monitore falsos alarmes e erros. Se o ruído aumentar, ajuste os alertas ou faça um novo treinamento e mantenha sempre um modelo de fallback pronto caso haja falhas na ignição.
  • Proteja o fluxo. Limite quem pode alterar dados de treinamento, rótulos ou regras de detecção. Para atualizações em massa, é necessário fazer uma revisão rápida por pares e manter um registro de alterações simples.

5. A supervisão é essencial para evitar a “automação sem supervisão”

AI pode gerar ou ajustar regras de segurança em tempo real. Sem proteções, ele pode ficar superprotegido (bloqueando o acesso essencial para os negócios) ou subprotegido (perdendo ameaças reais). De acordo com a pesquisa do Ponemon Institute para a Pure Storage, sistemas mal configurados são o segundo principal risco de armazenamento orientado por AI, ressaltando o perigo da automação sem supervisão apropriada.

Dicas para desenvolver resiliência

  • Defina os limites primeiro. Explique o que a AI pode ajustar por conta própria (por exemplo, limites de alerta), o que uma pessoa precisa confirmar e o que está fora dos limites (por exemplo, políticas de exclusão).
  • Teste antes da confiança. Deixe as mudanças propostas por AI serem executadas no modo sombra (recomendado/somente alerta) primeiro. Além disso, use mudanças limitadas por tempo que expiram a menos que uma pessoa confirme que elas devem continuar; isso ajuda a garantir que as regras não verificadas não persistam.
  • Implante com segurança e analise. Prepare atualizações para um pequeno grupo de usuários, reverta automaticamente se os erros aumentarem e faça uma revisão semanal rápida das alterações feitas ou ajustadas pela AI para decidir sobre ajustes.

6. Contexto amplo das necessidades efetivas de detecção de anomalias (muito)

Para detectar ataques de “agulha em um palheiro”, a AI precisa de contexto entre usuários, sistemas e armazenamentos de dados. Em outras palavras, ela precisa de grandes quantidades de dados de diversas fontes. Mas a escala reduz ambos os caminhos: Sem as proteções adequadas, o data firehose pode facilmente sobrecarregar ferramentas e pessoas.

Dicas para desenvolver resiliência

  • Monitore o que importa. Acompanhe uma pequena lista de sinais de alerta, como exclusões incomuns e grandes transferências. Certifique-se de que haja um proprietário designado de cada sistema e conjunto de dados para ajudar a acelerar as decisões.
  • Mantenha os dados gerenciáveis. Desduplicar conforme os dados chegam, manter registros detalhados por um curto período e resumos por mais tempo e manter uma linha de base clara da atividade normal.
  • Torne os alertas úteis. Correlacione eventos relacionados, defina limites sensíveis e envie apenas alertas de alta prioridade para as pessoas, especialmente quando as mudanças podem potencialmente destruir ou expor dados.

Saiba como a Pure Storage está entregando as informações práticas de CVE que os clientes precisam para entender e mitigar vulnerabilidades. 

7. Fome de dados da AI aumenta o risco de privacidade e conformidade

Sistemas de AI genéricos frequentemente precisam de acesso a dados confidenciais para fornecer resultados relevantes. Isso aumenta as chances de exposição acidental e erros de conformidade, especialmente de acordo com o Regulamento Geral de Proteção de Dados (GDPR, General Data Protection Regulation), a Lei de Privacidade do Consumidor da Califórnia (CCPA, California Consumer Privacy Act) e as regras emergentes de responsabilidade por AI. O objetivo é habilitar a AI sem ampliar sua superfície de ataque de privacidade.

Dicas para desenvolver resiliência

  • Limite o que a AI pode ver. Rotule dados confidenciais e forneça aos modelos apenas as informações necessárias. Por padrão, mascare ou remova informações pessoais e, quando possível, teste com dados de amostra falsos ou menores.
  • Crie privacidade no armazenamento. Use controles de acesso fortes, permissões limitadas por tempo e cópias bloqueadas e inalteráveis (imutáveis/bloqueadas por retenção) para que os dados confidenciais não possam ser alterados ou expostos. Além disso, certifique-se de que os dados sejam criptografados em REST e em trânsito.
  • Defina proteções para uso e compartilhamento. Decida onde os avisos, resultados e logs estarão, quem poderá acessá-los e por quanto tempo você os manterá. Siga uma abordagem de menor privilégio para que apenas usuários ou sistemas autorizados possam visualizar saídas sensíveis. Mantenha uma trilha de auditoria e desative qualquer recurso que salve avisos ou resultados, a menos que você realmente precise.

A resiliência é o caminho a seguir para a inteligência AI e a segurança de dados

A AI já está simplificando a segurança de dados ao automatizar tarefas repetitivas, reduzir custos e devolver às equipes um tempo valioso. Mas também apresenta novos riscos. O caminho sensato para avançar com a AI é priorizar a resiliência em cada etapa, criando segurança em sua base com defesas em camadas, dados imutáveis e infraestrutura em camadas pronta para recuperação. A Pure Storage ajuda as organizações a alcançar essa resiliência simplificando as operações na camada de dados e permitindo uma recuperação rápida e previsível quando mais importa.

Embora os desafios de inteligência AI e segurança de dados descritos acima persistam durante todo o ano, o mês de conscientização sobre segurança cibernética serve como um lembrete oportuno para avaliar sua postura de segurança, revisitar suas estratégias de recuperação e garantir que suas ambições de AI sejam desenvolvidas em uma plataforma de dados segura, compatível e resiliente, como a Pure Storage. Olhando para 2026 e além, esses desafios só se intensificarão, o que agora é o momento de se preparar.

Ponemon Institute