AI en cyberbeveiliging: problemen, bedreigingen en kansen

Loader DigitalCityEen ogenblik, aub...

Podcast

Kunstmatige intelligentie (AI voor artificial intelligence) is een ware revolutie in alle sectoren, maar de integratie ervan roept grote vragen op voor de cyberbeveiliging. Hoe kunnen deze systemen worden beschermd tegen steeds meer geavanceerde aanvallen? Wat is de rol van bedrijven en instellingen bij deze ontwikkelingen?

In een exclusieve podcast met Phédra Clouner (plaatsvervangend CEO van het CCB) en Louis de Diesbach (technisch ethicus) werden deze kwesties diepgaand besproken.

De grootste uitdagingen voor cyberbeveiliging in het licht van AI

Volgens McKinsey zijn aanvallen met behulp van generatieve AI sinds 2022 met 300% toegenomen, waarbij deepfakes en social engineering-campagnes steeds geloofwaardiger worden. Phédra Clouner wijst erop dat cyberbedreigingen steeds meer geavanceerd en persoonlijk worden en dat AI grootschalige aanvallen kan automatiseren, waardoor detectie en reactie complexer worden. Bedrijven kunnen niet langer genoegen nemen met conventionele maatregelen. Cyberbeveiliging moet AI integreren, niet alleen om bedreigingen te detecteren en erop te reageren, maar ook om te anticiperen op aanvallen voordat ze plaatsvinden. Om zich aan te passen, moeten bedrijven veel investeren in cyberbeveiligingsoplossingen die zijn aangepast aan de nieuwe realiteit van AI. Benaderingen op basis van het gebruik van geavanceerde detectiealgoritmen en voortdurende opleiding van medewerkers zijn essentiële strategieën om veerkracht op te bouwen tegenover cyberbedreigingen.

AI: een hefboom voor cyberbeveiliging?

Hoewel AI een bedreiging vormt, is het ook een formidabele troef om de cyberveiligheid te versterken. Louis de Diesbach belicht het potentieel van defensieve AI-systemen. Gedragsanalyse op basis van AI kan afwijkingen in realtime identificeren, waardoor de tijd die nodig is om cyberaanvallen te detecteren wordt teruggebracht van enkele dagen tot enkele minuten. De toepassing van AI in cyberbeveiliging zou de kosten van datalekken tegen 2026 met 40% kunnen verlagen. Maar deze automatisering roept een belangrijke vraag op: wie zal deze systemen controleren?

Toegenomen bedreigingen & strengere regelgeving

De massale toepassing van AI in bedrijven stelt ze bloot aan nieuwe kwetsbaarheden. Hier zijn een paar voorbeelden van bedreigingen die door AI kunnen worden versterkt:

  • Phishing-aanvallen worden geloofwaardiger dankzij zeer realistische audio en video deepfakes.
  • AI kan worden gebruikt om adaptieve malware te genereren die detectie kan vermijden.
  • Subtiele manipulatie van trainingsgegevens kan een AI-systeem verstoren en kwetsbaar maken.

Phédra en Louis geven aan dat de regelgeving deze risico's hoog in het vaandel draagt. De Europese AI-Act legt nu strenge normen op voor kritieke AI-systemen, terwijl de NIS2-richtlijn de cyberbeveiligingsverplichtingen voor kritieke infrastructuren aanscherpt.

Anticiperen op cyberbedreigingen dankzij opleidingen

Het wordt steeds belangrijker om de interacties tussen AI en cyberbeveiliging te begrijpen. Digitalcity.brussels biedt gespecialiseerde opleidingen om professionals te helpen hun vaardigheden te ontwikkelen. Investeren in deze opleiding is essentieel om te anticiperen op ontwikkelingen en de digitale uitdagingen van morgen aan te gaan. De toekomst van cyberbeveiliging speelt zich vandaag af. Een opleidingen volgen betekent risico's voorkomen en deze anticiperen. Bent u klaar om de uitdaging aan te gaan?

Lees hier meer over onze komende opleidingen.

Luister naar de volledige aflevering op Spotify : AI & Cybersecurity podcast