Deepfakes, mobiele aanvallen en meer eigen verantwoordelijkheid

SANS Institute heeft een drietal voorspellingen afgegeven waarmee we vanuit security-oogpunt in 2026 mee te maken zullen krijgen. Was 2025 het jaar waarin AI nog meer voet aan de grond kreeg, in het komende jaar zullen ook mobiele aanvallen een belangrijke rol gaan spelen.
Door deepfakes aangedreven fraude zal een alledaagse realiteit worden. SANS Institute voorspelt dat er meer gevallen komen waarin criminelen zich voordoen als familieleden, collega’s of andere ‘bekenden’. Hierbij maken zij gebruik van stemmen en video’s die zo echt klinken en lijken dat velen zullen worden misleid. Wat dit extra lastig maakt, is dat zelfs tools die beweren deepfakes te detecteren, moeite hebben om betrouwbaar onderscheid te maken tussen authentieke en gegenereerde content. Rob T. Lee, Chief AI Officer van SANS Institute, licht toe: “De verantwoordelijkheid verschuift naar consumenten. Een aantal eenvoudige verificatietactieken kan hierbij helpen. Vraag bijvoorbeeld de persoon in een live videogesprek met zijn hand voor het gezicht te zwaaien. Een ander voorbeeld is een vooraf afgesproken codewoord. Dit doorbreekt de technologie en verankert het moment weer in menselijk vertrouwen.”
Meer mobiele aanvallen
In 2026 zullen mobiele apparaten het primaire doelwit worden voor door AI ondersteunde fraude. AI-agents maken het voor aanvallers heel makkelijk om gepersonaliseerde berichten te creëren en duizenden parallelle scam-pogingen uit te voeren via sms, WhatsApp en andere sociale apps. Het volume neemt toe, maar belangrijker nog: de geloofwaardigheid neemt ook toe. Nogmaals Lee: “Blijf op je hoede, ook al lijkt iets nog zo echt. Bijna iedereen heeft vandaag de dag een smartphone, en daar maken de kwaadwillenden maar al te graag gebruik van. Eén subtiel detail maakt straks het verschil tussen vertrouwen en digitale oplichting.”
Aansprakelijkheid
Naarmate meer apps ongemerkt AI-functies inbouwen, dragen consumenten steeds meer verantwoordelijkheid. De gebruiksvoorwaarden worden complexer, toestemmingen indringender en de downstream-risico’s moeilijker te begrijpen. De meeste mensen beseffen pas hoeveel macht ze weggeven wanneer er iets misgaat.
Lee: “We zien AI-systemen die aankopen kunnen doen, berichten versturen, logistiek coördineren en delen van ons digitale leven beheren. Maar als een AI-tool faalt of een verkeerde beslissing neemt, ligt de aansprakelijkheid mogelijk niet bij het bedrijf. Veel overeenkomsten schuiven de verantwoordelijkheid nu al door naar de gebruiker. Dit zal een bredere discussie aanwakkeren over digitale verantwoordelijkheid en welke vangrails consumenten nodig hebben voordat ze meer autonomie aan deze systemen uit handen geven.”
Bron: Pcactive 23 december 2025, Rob Coenraads