Van ChatGPT naar HackGPT
De opkomst en de voortdurende ontwikkeling van kunstmatige intelligentie (AI) zorgt voor eindeloos nieuwe mogelijkheden in de wereld van cybersecurity. Bedreigingen en zwakheden kunnen sneller en nauwkeuriger worden gedetecteerd, en de handelingssnelheid van securityteams wordt met AI hoger dan ooit. Dat is hard nodig, want zoals het gaat met alle nieuwe middelen die de mensheid vooruit helpen, vinden nieuwe technieken ook gretig aftrek bij cybercriminelen.
Cybersecurityteams zetten AI en Machine Learning al in om cybercriminelen buiten de deur te houden. Geavanceerde cyberbeveiligingsoplossingen gebruiken zulke technologieën om aanvallen automatisch op te sporen, grote hoeveelheden gegevensverkeer snel te controleren, fraudepatronen te detecteren, en zelfs aanvallen te voorspellen. Het is slechts een greep uit AI-toepassingen die het leven van cybersecurityteams een stuk aangenamer maken.
Aan de andere kant worden diezelfde AI-middelen ingezet voor activiteiten van meer kwaadwillende aard. Van het maken van succesvollere phishingmails tot het genereren van deepfakes. Met de toenemende populariteit van AI is het kat-en-muis-spel tussen hackers en beveiligers naar een nieuw niveau getild. John Schaap, Senior Director South & West Europe van BlackBerry, schetst een aantal opvallende AI-dreigingen waar bedrijven rekening mee moeten houden.
Phishing naar een hoger niveau tillen
Phishing-mails waren eerder te identificeren aan de taalfouten en waren bovendien onpersoonlijk. Met de opkomst voor ChatGPT kunnen kwaadwillenden eenvoudiger gepersonaliseerde phishingberichten genereren die gebaseerd zijn op berichten die in het verleden succesvol waren of die bepaalde details bevatten die het bericht geloofdwaardiger maken. Medewerkers moeten daarom nog beter getraind worden op het herkennen van phishing-mails en zich nog vaker de vraag stellen: ‘is deze link wel veilig’, want op eerste oogopslag is dat steeds moeilijker te zien.
Deepfakes van bekenden
Dat deepfakes veel schade kunnen veroorzaken is geen nieuws meer. Maar er duiken tegenwoordig andere varianten van deepfakes op. AI-bots kunnen namelijk stemmen genereren of imiteren, en zelfs video’s. Cybercriminelen kunnen zich nu voordoen als een van de leidinggevenden van een bedrijf om werknemers te overtuigen om geld, en persoonlijke of bedrijfsinformatie te delen. Deze techniek is de volgende ontwikkeling van de inmiddels bekende WhatsApp-fraude, alleen worden personen nu door een computer gebeld en worden stemmen van familieleden, vrienden of collega’s gefaket.
Op grote schaal valse informatie verspreiden
Met behulp van AI sturen hackers gemakkelijker dan ooit valse informatie de wereld in, waarmee ze op grote schaal de publieke opinie kunnen beïnvloeden. Fake news en verkeerde informatie kunnen enorme chaos veroorzaken. Stel dat je suggereert dat bepaalde aandelen (of cryptovaluta) waardevol worden, dan kun je een hype creëren onder investeerders. Bedrijven en individuen gaan vervolgens geld investeren in deze aandelen, waardoor de waarde kunstmatig stijgt. Voor criminelen die vooraf al een deel van de aandelen (of cryptovaluta) hebben aangeschaft is dit een lucratieve scam. Daarnaast is er de mogelijkheid voor kwaadwillende groepen om de publieke opinie, reputatie en politieke en sociale kwesties te beïnvloeden.
Reputatieschade door fake e-mails
Met generatieve AI kun je uiterst realistische e-mailwisselingen namaken. Die kunnen voor flink wat reputatieschade zorgen. Stel dat een AI-model het laat lijken dat leidinggevenden per mail met elkaar spreken over hoe ze een financieel tekort proberen te verdoezelen. Als vervolgens die mailwisseling ‘uitlekt’ en via socialmediabots wordt verspreid, is de reputatieschade niet te overzien. Met klanten- en werknemersverloop, en keldering van de bedrijfswaarde als potentieel gevolg.
Om de potentiële schade van zulke AI-dreigingen tegen te gaan, moeten cybersecurityteams proactief en preventief actie ondernemen. Door vuur met vuur te bestrijden – AI gebruiken om je tegen AI te beveiligen – maak je het speelveld gelijk. Hierdoor zorg je ervoor dat AI-toepassingen worden beveiligd en dat dreigingen worden afgeslagen met behulp van de kracht van AI.
Dat AI veel potentie biedt om cybersecurity continu te verbeteren, spreekt voor zich. Voor cybersecurityteams en bedrijfseigenaren is het essentieel om te blijven beseffen dat elke nieuwe ontwikkeling gepaard gaat met nieuwe mogelijkheden voor criminelen. Vertrouwen op je eigen, soms gedateerde, technieken en handmatige processen om jezelf te verdedigen kan in de tijd van razendsnelle ontwikkelingen niet meer.
Lees ook: Veiligheid in de metaverse: de risico’s voor bedrijven | WINMAG Pro
Lees ook: €18.000 per minuut voor een deepfake video | WINMAG Pro