De nieuwste cybersecurity-trend: desinformatie op basis van AI

De nieuwste cybersecurity-trend: desinformatie op basis van AI

Redactie WINMAG Pro
Het conflict tussen Rusland en Oekraïne hebben de dreiging en de impact van desinformatie opnieuw onder de aandacht gebracht.

Door: Éléna Poincet, CEO en oprichter van TEHTRIS

Desinformatie bestaat natuurlijk al langer, maar het staat nu in de schijnwerpers. Conflicten worden niet langer alleen op het slagveld uitgevochten: informatie wordt steeds vaker als wapen gebruikt. Desinformatie neemt verschillende vormen aan: van zogenaamde verklaringen van ambassadeurs tot het censureren van nationale zenders.

Desinformatie is niet alleen gericht op het buitenland. In Rusland bijvoorbeeld worden mediabronnen uit het buitenland geblokkeerd, waardoor de bevolking alleen nieuws kan volgen van door de staat gecontroleerde nieuwszenders. Voor de oorlog die het land nu voert is steun van de eigen bevolking enorm belangrijk. Deze dreiging wordt nog gevaarlijker als er ‘machines’ bij betrokken zijn. Kunstmatige intelligentie (AI) zal in 2023 worden gebruikt om het verspreiden van desinformatie te automatiseren.

Wat is de rol van AI bij het verspreiden van desinformatie?

Software gebaseerd op AI kan beelden, video's en soms zelfs stemmen genereren. Zo testte Tim Verheyden van VRT NWS onlangs de spraaksoftware ElevenLabs. Zonder veel specifieke AI-kennis slaagde hij erin een audioclip te maken waarin Joe Biden de oorlog verklaart aan Rusland.

Maar het grote probleem tegenwoordig is dat bijna iedereen, zonder technische expertise, dergelijke content kan creëren met online software. Als je een opname van een minuut hebt van een willekeurige stem, kun je de computer allerlei dingen laten zeggen die die mensen nooit hebben uitgesproken.

Complotdenkers, stemmingmakers en cybercriminelen kunnen hun lol op met deze technologie en daarin schuilt het gevaar. Op Europees niveau wordt gewerkt aan een AI-wet die op zijn vroegst in 2025 van kracht wordt. Maar er is al regelgeving rond databescherming. Zo is je eigen stemgeluid – een persoonlijk gegeven van je – al beschermd. En verder zijn er ook regels tegen identiteitsfraude, want dat is ook verboden.

Wat zijn de risico's?

Cybercriminelen kunnen de publieke opinie beïnvloeden, valse afbeeldingen creëren en iets schaamteloos manipuleren. Een voorbeeld hiervan was de grootschalige verspreiding van valse informatie na de verkiezing van president Donald Trump. Onderzoekers constateerden later dat nepnieuws een belangrijke rol speelde voor mensen met een Latino-achtergrond die bij de verkiezingen van 2016 en 2020 op voormalig president Donald Trump stemden. Zo ontdekte onderzoeksbureau Equis dat YouTube een belangrijke rol speelde bij het overtuigen van Latino's om op Trump te stemmen. De video's op het videoplatform bleken echter vol onjuiste informatie te staan.

Daarnaast maken kwaadwillende actoren gebruik van machine learning om nauwkeurig hun volgende slachtoffers te kiezen en maatschappelijke onrust te veroorzaken. Een veelzeggend voorbeeld is dat van de mysterieuze Oekraïense piloot, die op de eerste dag van de invasie zes Russische vliegtuigen zou hebben neergeschoten. 

Het valt te verwachten dat het aantal door AI gevoede desinformatiecampagnes zal toenemen. Vermoedelijk zullen deze zelfs nog veel geavanceerder, persoonlijker, sneller en moeilijker te detecteren worden.

Stel, het glas is halfvol: kan AI dan ook helpen om nepnieuws tegen te gaan?

Gelukkig bestaan er ook data-algoritmen die valse of gemanipuleerde content opsporen. Dat doen ze door ze te vergelijken met verschillende feiten en ze te beoordelen aan de hand van honderden en zelfs duizenden pagina's of publicaties met vergelijkbare feiten. Zo ontwikkelde computerwetenschapper Xueqin Chen een nieuwe manier om nepnieuws te herkennen en de verspreiding van berichten binnen online sociale netwerken te voorspellen met behulp van AI.

Helaas is het lek nog niet boven. Semantische analyse is namelijk niet altijd toepasbaar, vooral niet op bepaalde versleutelde platforms. Aangezien de technologische wedloop oneindig is, moeten we ons bewust zijn van eventuele manipulatie en altijd kritisch blijven!

 

 

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie