AI in cybersecurity: solide infrastructuur basis voor succes
AI in cybersecurity lijkt ideaal omdat de technologie in staat is tot het verwerken van enorme hoeveelheden data. Een organisatie die erin slaagt om geautomatiseerd datapatronen en afwijkingen te analyseren kan veel cybersecurity narigheid voorkomen. Bedrijven hebben in potentie eerder inzicht in gevaren, verdacht gedrag van gebruikers en ongewenste inlogpogingen.
Is AI ook echt AI?
Bij het opsommen van de voordelen van AI in cybersecurity is het opletten om niet te verzanden in halleluja voorbeelden. Zowel de ‘oude’ AI als Generatieve AI zijn relatief jonge technologieën en het aantal praktijkvoorbeelden van AI in cybersecurity is nog beperkt. Daarbij is het ook zeer de vraag of wat mensen zien als AI, ook echt AI is. Software is al heel lang voorzien van slimme functies, die niet noodzakelijk allemaal onder de AI-paraplu vallen.
Minder menselijke handelingen
Hoewel het aantal voorbeelden van AI in cybersecurity te overzien is, zijn ze er wel degelijk, inclusief de voordelen. In veel organisaties omvat cybersecurity nog een vorm of diverse vormen van menselijke handelingen. Dat kost tijd en er is een kans op het maken van fouten. AI kan sneller dan veel bestaande systemen grote hoeveelheden data analyseren en potentiële gevaren uitlichten. Het herkennen van patronen op basis van deze data helpt bij het voorspellen van stappen die een organisatie kan of zou moeten zetten.
Herkennen cybersecuritypatronen
Een vermoedelijk nog groter voordeel is dat de combinatie van AI en cybersecurity in staat is tot leren en aanpassen. Machine Learning algoritmes zijn zo te programmeren dat ze patronen en gedrag herkennen dat past bij cyberaanvallen. Daarmee is er een kans om deze te voorkomen nog voor ze zijn begonnen. Een goed voorbeeld van cybersecurity tools die zijn voorzien van AI, zijn Intrusion Detection Systems (IDS). Deze monitoren het verkeer op een netwerk, dan welenwat er binnen deze netwerken gebeurt. Het systeem monitort real-time of activiteiten horen bij wat is gedefinieerd als ‘in orde’. Vervolgens kan de tool potentiële gevaren ook direct in de kiem smoren.
Steeds slimmere cybercriminelen
Gevaren zijn er uiteraard ook rond AI in cybersecurity. Ondanks de vele voordelen, zitten cybercriminelen niet stil,; diezewerpen zich massaal op het concept van Adversarial AI. Dat komt neer op het gebruiken van dezelfde AI-rekenkracht voor het geautomatiseerd blootleggen van kwetsbaarheden in bedrijfssystemen en -netwerken. Zijn die gevonden, dan zijn de cyberaanvallen die daarop volgen gerichter en effectiever. Daarnaast zorgt Generatieve AI, zoals ChatGPT, voor een enorme kwaliteitsslag kwaliteitsverbetering van phishing aanvallen. Waar teksten eerder nog regelmatig fouten bevatten, lopen teksten nu soepel en zijn ze bovendien overtuigender.
Voorkomen hallucinaties
Daarnaast zijn er de ‘gevaren’ die organisaties zelf creëren. AI is tot veel in staat, maar het blijft een hulpmiddel dat vooral goed werkt als de infrastructurele basis op orde is. Die basis bestaat uit veel goede en complete data. Zeker Generatieve AI probeert altijd een antwoord te geven op een vraag of een situatie. Het kan resulteren in een antwoord dat niet volledig juist is of soms zelfs ronduit fout is. Deze hallucinaties vormen nadrukkelijk een gevaar en het checken van resultaten is zeer gewenst.
Grens aan rekenkracht en koppelingen
Toch vereist de inzet van AI in cybersecurity meer dan alleen accurate data. Succes is afhankelijk van meerdere stappen. Hoewel AI goed is in het herkennen van patronen, moeten organisaties ervoor waken om alle logs in de tool te ‘gooien’ en deze vervolgens te laten zoeken naar patronen. Dat kost simpelweg teveel kracht. Daarbij is de kans nu nog groot dat API’s onvoldoende kracht hebben om die datahoeveelheden te verwerken. Het is beter om een voorselectie te doen. Daarnaast is het überhaupt verstandig om kritisch te kijken naar waar je AI wel en niet wilt inzetten.
Kritische blik
Een kritische blik bij de inzet van de technologie werkt risicobeperkend. Dat geldt niet alleen voor iets wat een organisatie graag wil monitoren, maar ook naar ketenpartners toe. Rory Breuk, Chief Information Security Officer bij Team.Blue: “Als organisatie moet je altijd goed bekijken welke data je gebruikt en hoe je risico’s kunt verminderen, ook als je met een bepaalde partij in zee gaat. Blijf kritisch, zelfs naar leveranciers toe.”
Combinatie van mens en AI
Er is volgens Breuk nog heel veel te ontdekken waar het aankomt op AI in cybersecurity. “Query’s moeten juist zijn en bij twijfel moet je altijd checken. Systemen met AI zijn toch iets meer een black box dan systemen zonder. Dus zul je risico analyses moeten uitvoeren op elke tool die je inzet.” Maar met de juiste stappen biedt kunstmatige intelligentie goede kansen om cybercriminelen te weren. “Ik zie vooral potentie in de combinatie van mens en AI. Juist bij aanvallen op systemen heb je de creatieve kant van de mens nodig. Een systeem kan veel, maar in combinatie met mensen ben je cybercriminelen eerder een stapje voor.”
Dit artikel is onderdeel van onze Cybersecuritymaand. Alle artikelen, webinars en e-books vind je op content.transip.nl/cyber-security-month-van-transip!
Bedankt voor het toelichten!