7 uitdagingen met AI en databeveiliging – en tips voor het opbouwen van veerkracht

In cybersecurity kan AI ons helpen, maar het kan ook de kwaadwillenden een handje helpen. Hier zijn zeven dingen om rekening mee te houden bij het gebruik van AI voor beveiliging en wat u nodig hebt om ze op te lossen.

Challenges with Applying AI to Data Security

image_pdfimage_print

AI is zowel zwaard als schild in moderne cybersecurity. Het doorzoekt enorme datasets in enkele seconden, signaleert anomalieën vroeg en koopt verdedigers de tijd om te handelen. En volgens nieuw onderzoek van het Ponemon Institute gebruikt 47% van de Amerikaanse organisaties al AI om hun meest waardevolle bezit te beschermen: hun data.

Om te begrijpen hoe teams veerkracht opbouwen voor data in opslag, heeft het Ponemon Institute 610 IT- en beveiligingsprofessionals ondervraagd voor het onderzoek “The State of Cyber Resilience“, gesponsord door Pure Storage. De bevindingen tonen aan dat 45% van de beoefenaars verwacht dat op AI gebaseerde beveiligingstechnologieën de databeveiligingsopslag van hun organisatie zullen versterken. Meer dan de helft (53%) zegt dat AI de bescherming vereenvoudigt door taken die eerder door menselijke teams werden beheerd efficiënter en kosteneffectiever uit te voeren.

AI introduceert echter AI ook nieuwe databeveiligingsrisico’s. De helft van de behandelaars die door het Ponemon Institute werden ondervraagd, noemde datavergiftiging als de belangrijkste AI-gestuurde opslagbedreiging. Anderen wezen op een slechte systeemconfiguratie en verkeerde configuraties als gevolg van een te grote afhankelijkheid van AI voor cyberrisicobeheer. 

De belangrijkste lessen uit deze bevindingen: Hoewel AI-tools u kunnen helpen problemen sneller op te sporen, hangt het bereiken van echte cyberveerkracht af van hoe goed u data kunt beschermen en herstellen. Laten we met dat in gedachten zeven AI- en databeveiligingsuitdagingen bekijken, samen met voorbeelden van praktische manieren om de veerkracht te vergroten.

1. AI zal het menselijke element in cyberbeveiliging niet elimineren

AI kan patronen herkennen en triage versnellen, maar het oordeel berust nog steeds bij mensen – wat te onderzoeken, wanneer te escaleren en hoe bedreigingen in te perken. Nu aanvallers generatieve AI gebruiken om meer overtuigende lokaties te creëren, is het grootste risico voor databeveiliging niet “AI die mensen vervangt”, maar teams vertrouwen automatisering toe zonder de noodzakelijke training, beslissingskaders en incident playbooks.

Tips voor het opbouwen van veerkracht

  • Houd mensen verantwoordelijk voor de resultaten. Gebruik AI-monitoring om ongebruikelijke activiteiten te markeren, zoals onverwachte verwijderingen of atypische databewegingen, maar moet door mensen worden beoordeeld voordat insluitingsstappen of grote reacties worden geactiveerd.
  • Train voor escalatie. Zorg ervoor dat het personeel weet wanneer waarschuwingen moeten worden geëscaleerd, hoe AI-gestuurde inzichten moeten worden geïnterpreteerd en gebruikt en wie de uiteindelijke autoriteit heeft tijdens een incident.
  • Repeteer incidentrespons. Voer tafeloefeningen uit die AI-waarschuwingen combineren met menselijke beslissingen, zodat teams insluiting en communicatie oefenen onder echte omstandigheden.

2. Zelfs met AI is er geen Silver Bullet in beveiliging

AI is waardevol voor vroegtijdige waarschuwingen, zoals het markeren van ongebruikelijke lees-, verwijder- en overdrachten, maar het houdt data niet veilig of brengt u zelf terug in een stabiele staat. Sterke databeveiligingscontroles verminderen de kans op verlies en gedisciplineerde cyberveerkrachtpraktijken zorgen ervoor dat u snel kunt herstellen wanneer zich een incident voordoet. 

Tips voor het opbouwen van veerkracht

  • Hard de datalaag uit. Moderne cybersecurity draait om lagen. Pas de minste machtigingen toe, beveilig sleutelarchieven en vergrendel opslagconsoles om misbruik of manipulatie te voorkomen.
  • Houd schone, sabotagebestendige, onuitwisbare kopieën. Behoud beschermde kopieën van kritieke datasets en -configuraties, en oefen restores om ervoor te zorgen dat u op betrouwbare wijze de doelen voor Recovery Point Objective (RPO) en recovery time objective (RTO) kunt halen. Dat zal u helpen om u beter te verdedigen tegen back-upsabotage, Ransomware-encryptie en onbedoelde of insiderverwijderingen.
  • Beperk schade door ontwerp. Segmenteer netwerken en dwing strikte scheiding van taken af om te voorkomen dat een enkele inbreuk zich over uw hele omgeving verspreidt.

Ontdek hoe gelaagde veerkracht de data-integriteit beschermt en snel herstel op elke schaal mogelijk maakt.

3. AI is nog steeds reactiever dan preventief

AI is krachtig in het aan het licht brengen van dataopslagrisico’s zoals ongebruikelijke reads, deletes of databewegingen. Het voorkomt echter niet de hoofdoorzaken, zoals de eerste phishing-klik of een gestolen token. Het goede nieuws is dat AI volgens het onderzoek “State of Cyber Resilience” helpt om handmatige workloads voor beveiligingsteams te verminderen. Dat betekent dat artsen meer bandbreedte hebben om te investeren in preventieve maatregelen, zoals sterkere configuraties, training van werknemers en routinematige systeemverharding.

Tips voor het opbouwen van veerkracht

  • Sluit eenvoudige deuren. Houd systemen gepatcht, verwijder verouderde accounts en sluit ongebruikte toegangspaden om te voorkomen dat eenvoudige aanvallen momentum krijgen. Combineer dit met een training voor beveiligingsbewustzijn die werknemers leert hoe ze phishing, kwaadaardige links en andere social engineering-trucs kunnen herkennen, waardoor gebruikers frontline verdedigers worden.
  • Zet een snelheidsstoot voor risicovolle veranderingen. Voeg een korte pauze en snelle beoordeling toe voor acties die data kunnen wissen of beschermingen kunnen verzwakken, zoals het verwijderen van back-ups of het wijzigen van retentie/sleutels. Duidelijke labels en een korte checklist helpen mensen te weten dat ze zich in een riskant gebied bevinden.
  • Herstel op de automatische piloot – na een menselijke “go”. Voordat u grote updates of beleidswijzigingen implementeert, maakt u onuitwisbare snapshots, houdt u een terugdraaiplan van één pagina bij en voert u snelle hersteloefeningen uit op voorbeeldgegevens om ervoor te zorgen dat iedereen begrijpt hoe hij/zij weer in een veilige staat kan komen.

4. AI-modellen moeten zich ontwikkelen – of risicoslechte gesprekken

AI helpt alleen als het leert van schone, actuele data. AI-modellen kunnen afwijken, waardoor normale activiteiten als verdacht worden gemarkeerd of nieuwe patronen ontbreken. En, zoals we weten uit het onderzoek van het Ponemon Institute, beschouwen IT- en beveiligingsprofessionals opzettelijke datavergiftiging – het verstoren van trainingsdata of labels – als het belangrijkste AI-gestuurde opslagrisico.

Tips voor het opbouwen van veerkracht

  • Vernieuw modellen met betrouwbare data. Hertrain modellen regelmatig met behulp van doorgelichte, representatieve datasets en noteer de bron van de data. Laat alles weg waar u niet achter kunt staan.
  • Bekijk de signalen. Controleer valse alarmen en missers. Als het lawaai toeneemt, kunt u waarschuwingen fijnafstellen of opnieuw trainen – en altijd een fallback-model bij de hand houden voor het geval dat wijzigingen uitvallen.
  • Bescherm de pijpleiding. Beperk wie trainingsdata, labels of detectieregels kan wijzigen. Voor bulkupdates moet u een snelle peer review uitvoeren en een eenvoudig wijzigingslogboek bijhouden.

5. Toezicht is essentieel om ‘Automatisering zonder toezicht’ te voorkomen

AI kan in realtime beveiligingsregels genereren of aanpassen. Zonder vangrails kan het overbeveiligd zijn (bedrijfskritische toegang blokkeren) of onderbeveiligd zijn (echte bedreigingen missen). Volgens het onderzoek van het Ponemon Institute voor Pure Storage zijn verkeerd geconfigureerde systemen het op een na grootste AI-gestuurde opslagrisico – wat het gevaar van automatisering zonder passend toezicht onderstreept.

Tips voor het opbouwen van veerkracht

  • Stel eerst de grenzen. Spell uit wat AI op zichzelf kan afstemmen (bijv. waarschuwingsdrempels), wat een persoon moet bevestigen en wat off-limits zijn (bijv. verwijderingsbeleid).
  • Proef vóór vertrouwen. Laat door AI voorgestelde wijzigingen eerst in schaduwmodus (aanbevolen/alleen alarm) draaien. Gebruik ook tijdelijke wijzigingen die verlopen, tenzij een mens bevestigt dat hij/zij moet doorgaan; dit helpt ervoor te zorgen dat niet-geverifieerde regels niet blijven bestaan.
  • Veilig uitrollen en vervolgens bekijken. Voer updates uit voor een kleine groep gebruikers, keer automatisch terug als fouten pieken en voer een snelle wekelijkse beoordeling uit van wijzigingen die door AI zijn aangebracht of afgestemd om te beslissen over aanpassingen.

6. Effectieve anomaliedetectie heeft (zeer) brede context nodig

Om “needle in a haystack”-aanvallen te herkennen, heeft AI context nodig tussen gebruikers, systemen en datastores. Met andere woorden, het heeft enorme hoeveelheden data uit verschillende bronnen nodig. Maar schaalgrootte kan beide kanten op: Zonder de juiste relingen kan de databrandslang gemakkelijk gereedschap en mensen overweldigen.

Tips voor het opbouwen van veerkracht

  • Monitor wat belangrijk is. Volg een korte lijst met rode vlaggen, zoals ongebruikelijke verwijderingen en grote overdrachten. Zorg ervoor dat er een aangewezen eigenaar is van elk systeem en elke dataset om beslissingen te helpen versnellen.
  • Houd data beheersbaar. Dedupliceer wanneer data arriveren, bewaar gedetailleerde records voor een korte periode en vat deze langer samen, en zorg voor een duidelijke basislijn van normale activiteit.
  • Maak waarschuwingen nuttig. Correleer gerelateerde gebeurtenissen, stel verstandige drempels in en stuur alleen waarschuwingen met hoge prioriteit naar mensen, vooral wanneer wijzigingen mogelijk data kunnen vernietigen of blootleggen.

Ontdek hoe Pure Storage de bruikbare CVE-informatie levert die klanten nodig hebben om kwetsbaarheden te begrijpen en te beperken. 

7. AI’s datahonger verhoogt privacy- en nalevingsrisico’s

Generatieve AI-systemen hebben vaak toegang tot gevoelige data nodig om relevante resultaten te leveren. Dat verhoogt de kans op onopzettelijke blootstelling en nalevingsmisstappen, vooral onder de Algemene Verordening Gegevensbescherming (AVG), de California Consumer Privacy Act (CCPA) en opkomende AI-aansprakelijkheidsregels. Het doel is om AI mogelijk te maken zonder het oppervlak van uw privacy-aanval te verbreden.

Tips voor het opbouwen van veerkracht

  • Beperk wat AI kan zien. Label gevoelige data en geef modellen alleen de benodigde informatie. Standaard persoonlijke informatie maskeren of verwijderen en waar mogelijk testen met nep- of kleinere monstergegevens.
  • Bouw privacy in opslag. Gebruik sterke toegangscontroles, beperkte machtigingen en vergrendelde, onveranderlijke kopieën (onveranderlijk/bewaarbaar) zodat gevoelige data niet kunnen worden gewijzigd of blootgesteld. Zorg er bovendien voor dat data zowel in rust als tijdens het transport worden versleuteld. REST
  • Stel relingen in voor gebruik en delen. Beslis waar prompts, resultaten en logboeken zullen leven, wie er toegang toe heeft en hoe lang u ze zult bewaren. Volg een least-privilege-aanpak, zodat alleen geautoriseerde gebruikers of systemen gevoelige outputs kunnen bekijken. Houd een auditspoor bij en schakel elke functie uit die prompts of resultaten opslaat, tenzij u deze echt nodig hebt.

Veerkracht is de weg vooruit voor AI en databeveiliging

AI vereenvoudigt de databeveiliging al door repetitieve taken te automatiseren, kosten te verlagen en teams waardevolle tijd terug te geven. Maar het brengt ook nieuwe risico’s met zich mee. Het verstandige pad voorwaarts met AI is om bij elke stap prioriteit te geven aan veerkracht – door beveiliging in uw fundament in te bouwen met gelaagde verdediging, onveranderlijke data en een recovery-ready, gelaagde infrastructuur. Pure Storage helpt organisaties deze veerkracht te bereiken door de activiteiten op de datalaag te vereenvoudigen en snel, voorspelbaar herstel mogelijk te maken wanneer het er het meest toe doet.

Hoewel de hierboven beschreven AI- en databeveiligingsuitdagingen het hele jaar door aanhouden, dient Cybersecurity Awareness Month als een tijdige herinnering om uw beveiligingshouding te beoordelen, uw herstelstrategieën opnieuw te bekijken en ervoor te zorgen dat uw AI-ambities zijn gebouwd op een veilig, compliant en veerkrachtig dataplatform zoals Pure Storage. Vooruitkijkend naar 2026 en daarna zullen deze uitdagingen alleen maar toenemen – wat nu de tijd maakt om zich voor te bereiden.

Ponemon Institute