Fortinet werkt samen met universiteit Berkeley aan het ‘AI-Enabled Cybercrime’-initiatief

Cybersecurity leverancier Fortinet is een partnership aangegaan met Berkeley’s Center for Long-Term Cybersecurity (CLTC) en het Berkeley Risk and Security Lab (BRSL)*. De samenwerking heeft als doel informatie en kennis te delen, wat bijdraagt aan een snellere detectie van bedreigingen en een snellere, beter gecoördineerde reactie op geavanceerde aanvallen. Een gezamenlijke aanpak van de bestrijding van cybercriminaliteit vergroot de veerkracht van elke organisatie en geeft toegang tot de middelen die nodig zijn om bedrijven effectief te beschermen. Praktijkervaring opdoen met het beperken van AI-gerichte bedreigingen is de volgende cruciale stap in het bestrijden van steeds geavanceerdere cybercriminele activiteiten.
Het praktijkproject AI-Enabled Cybercrime bestaat uit een gestructureerde reeks tabletop-oefeningen (TTX’s), enquêtes, workshops en interviews. Het project simuleert scenario’s uit de echte wereld om de dynamiek van AI-gebaseerde cybercriminaliteit bloot te leggen en toekomstgerichte verdedigingsstrategieën te ontwikkelen. Afgelopen december vond de eerste praktijksessie plaats, waaruit onderstaande bevindingen voortvloeiden.
5 AI-gebaseerde cybercrimetrends om in de gaten te houden
Tijdens de TTX en aanverwante discussies heeft de groep de belangrijkste trends met betrekking tot AI-gebaseerde cybercriminaliteit vastgesteld die, zo wordt verwacht, in de toekomst belangrijk zullen worden:
1. De opkomst van deepfakes en social engineering: Deepfake-technologie wordt toegankelijker. Kwaadwillenden kunnen bijvoorbeeld stemmen klonen met YouTube-beelden en een goedkoop abonnement. Naarmate AI-gestuurde bewerkingstools breder beschikbaar worden, zullen we het aantal imitatieaanvallen zien toenemen. Daarnaast verwachten we dat cybercriminelen “deepfake generation on demand” zullen aanbieden, waarbij stem- en videovervalsing worden omgezet in een as-a-service model, net zoals we Ransomware-as-a-Service hebben zien evolueren.
2. Hypergerichte phishing: Phishing wordt tegenwoordig steeds lokaler, persoonlijker en overtuigender. Door AI te gebruiken als hulpmiddel bij hun verkenningsinspanningen, creëren dreigingsactoren contextrijke, cultureel relevante phishingberichten die zijn afgestemd op lokale talen en in sommige gevallen verwijzen naar regiospecifieke feestdagen, gewoonten of gebeurtenissen. Hierdoor lijken deze berichten vaak legitiem en kunnen ze zelfs de meest cyberbewuste ontvanger voor de gek houden.
3. Agent-AI voor malware en verkenning: Het gebruik van agentic AI door cybercriminelen zal zich snel ontwikkelen. Een cybercriminele groep zou bijvoorbeeld meerdere AI-agenten kunnen beheren, die zich allemaal richten op het uitvoeren van een deel van de cyber kill chain, maar doen dat sneller dan een mens. In de toekomst verwachten we dat tegenstanders AI-agenten zullen gebruiken voor meerdere activiteiten, zoals het inzetten van AI-agenten in botnets die actief bezig zijn met het ontdekken van Common Vulnerabilities and Exposures (CVE’s).
4. AI-gestuurde identiteiten om bedreigingen van binnenuit te vergroten: Tijdens de TTX besprak de groep een scenario waarin aanvallers AI-gestuurde identiteiten zouden kunnen creëren en gebruiken om te solliciteren naar banen op afstand bij technologiebedrijven, waarbij ze langs standaard achtergrondcontroles komen met een verzonnen arbeidsverleden. Als kwaadwillende actoren dit gebruik van AI verkennen, moeten organisaties het doorlichtingsproces bij het aannemen van personeel opnieuw onderzoeken en vernieuwen.
5. Geautomatiseerd scannen op kwetsbaarheden en uitbuiting: Hoewel cybercriminelen AI nu voornamelijk gebruiken voor verkenning en om te helpen bij de eerste inbraak, verwachten we dat kwaadwillende actoren AI snel zullen inzetten om kwetsbaarheden te ontdekken en te misbruiken. In korte tijd kunnen AI-tools grote hoeveelheden code scannen, zero-day en N-day kwetsbaarheden identificeren en deze vervolgens automatisch uitbuiten.
Als reactie op het gebruik van AI door cybercriminelen moeten beveiligingsteams de verdediging van de organisatie versterken door de juiste technologieën en processen te implementeren. Een bedrijfsbreed trainings- en opleidingsprogramma voor cyberbeveiliging is een cruciaal onderdeel van een effectieve risicobeheerstrategie. Werknemers staan vaak in de frontlinie als het gaat om social engineering en phishingaanvallen, waardoor het van vitaal belang is dat iedereen in een organisatie weet hoe hij of zij een aanvalspoging moet herkennen.
*CLTC werd in 2015 opgericht als een onderzoeks- en samenwerkingscentrum aan de Universiteit van Californië, Berkeley, en fungeert als een platform en brug tussen academisch onderzoek en de behoeften van besluitvormers in de overheid, het bedrijfsleven en het maatschappelijk middenveld met betrekking tot de toekomst van veiligheid. BRSL aan de Goldman School of Public Policy van UC Berkeley is een academisch onderzoeksinstituut dat zich richt op het snijvlak van technologie en veiligheid. Het lab voert analytisch onderzoek uit en ontwerpt en ontwikkelt wargames.
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.