AI van lab naar samenleving: Een tweesnijdend zwaard
Het afgelopen decennium heeft Artificiële Intelligentie (AI) de weg gevonden van het lab naar de samenleving. Experts voorspellen dan ook een blijvende explosie aan AI-gedreven innovaties. Dit maakt ons leven aangenamer en biedt kansen voor een betere wereld, zoals robots die landmijnen deactiveren[1], AI-aangedreven voertuigen voor de inzet van humanitaire hulp[2], computervisie om de potvispopulatie te identificeren en op te sporen[3] en een intelligent dataplatform voor kleine boeren in Kenia dat helpt bij het oplossen van het wereldvoedseltekort.[4]
De integratie van AI in ons dagelijks leven raakt echter belangrijke waarden van onze samenleving zoals veiligheid, autonomie, vrijheid, burgerrechten, de rechtstaat en rechtvaardigheid. De NCTV en het NCSC waarschuwen voor een toenemende digitale dreiging die tot ontwrichting van de maatschappij kan leiden en waartegen de huidige weerbaarheid onvoldoende is.[5] Het (geautomatiseerd) verspreiden van onjuiste of suggestieve informatie draagt bij aan polarisatie en vormt een bedreiging voor onze democratie en openbare orde. De import van digitale dictatuur door de mogelijkheden van AI voor massasurveillance is hierbij een reëel gevaar.[6] Bovendien geeft AI voor militaire toepassingen zero-sum game voordelen aan landen en is er feitelijk een AI-wapenwedloop gaande.[7] Europa loopt gevaar. De westerse waarden en machtspositie staan onder druk doordat niet-westerse staten verder zijn in het ontwikkelen van AI-oplossingen en niet schromen om deze op (naar westerse maatstaven) onethische wijze in te zetten. De beroemde Amerikaanse diplomaat Henry Kissinger vergelijkt AI zelfs met nucleaire wapens. Beiden zijn een instrument om geopolitieke voordelen te behalen en onderwerp van een wedloop tussen grootmachten, met het potentieel van totale vernietiging.[8]
In dit artikel beschrijven we twee zaken: (1) de kansen die AI biedt voor een veiliger Nederland en (2) concrete handreikingen om te profiteren van AI-technologieën om digitaal weerbaar te blijven.
Kansen genoeg: AI wordt verantwoordelijker, slimmer en beter schaalbaar
Gartner verwacht dat AI de komende jaren slimmer, verantwoordelijker en beter schaalbaar wordt.[9] Binnen de overheid zien we echter terughoudendheid in het gebruik van AI-toepassingen. Oorzaken hiervoor zijn de angst dat er menselijke vooroordelen in algoritmes terechtkomen, een gebrek aan transparantie hierover en de mogelijke reputatieschade die hierdoor kan optreden. Het meest bekende voorbeeld is de toeslagenaffaire. Hierbij werden tienduizenden mensen door de kleinste foutjes in hun aanvraag voor kinderopvangtoeslag en door menselijke vooroordelen in het algoritme onterecht als fraudeur bestempeld. Het terugbetalen van de toeslagen bracht vele gezinnen in ernstige financiële problemen met alle gevolgen van dien. Daarnaast zijn er zorgen over toenemende surveillance, zoals camera’s met gezichtsherkenningssoftware.
Bovengenoemde affaires en zorgen leiden enerzijds tot meer bewustwording over de gevaren van AI en dragen bij aan de trend naar verantwoordelijke en transparante AI. Anderzijds heeft dit geleid tot toenemend technoscepticisme. Met name in de publieke sector staat dit AI-gedreven innovatie in de weg. Daarom is het van belang dat de trend van verantwoordelijke en transparante AI wordt doorgezet. Dit betekent dat AI-toepassingen moeten voldoen aan wetgeving en ethische principes en dat de databeveiliging en privacy op orde is. Ervoor zorgen dat algoritmen voor toetsing en evaluatie publiekelijk beschikbaar zijn, draagt hieraan bij, zoals bijvoorbeeld het Amsterdam algoritme register. Het voortzetten van deze trend om AI verantwoordelijker te maken is belangrijk om tegenwicht te bieden aan AI-ontwikkelingen in concurrerende staten, zodat Nederland (als onderdeel van de EU) regie behoudt over de richting waarin AI zich ontwikkelt m.b.t. Europese normen en waarden.
Verantwoordelijke AI biedt draagvlak om meer data te verzamelen voor het trainen van AI-modellen, waardoor deze slimmer worden. Daarbij hebben AI-systemen het vermogen om te blijven leren van ervaringen met data wanneer deze (op grotere schaal) operationeel worden ingezet.[10] Tech auteur en ondernemer Tom Rikert onderscheidt drie niveaus van AI-toepassingen, waarbij de toegenomen waarde exponentieel groeit per stap: AI tools (2-5X), force multipliers (10X) en automatisering (100X).[11] De Nederlandse veiligheidssector zou moeten streven naar het creëren van force multipliers en waar mogelijk naar ethisch verantwoorde volledige automatisering. Op dit terrein worden er al goede stappen gezet zoals bijvoorbeeld de nieuwe DNA-techniek van het Nederlands Forensisch Instituut, waarbij binnen drie dagen een DNA-spoor geautomatiseerd aan een crimineel kan worden gematcht. Voorheen kostte dit veel mankracht en weken doorlooptijd.[12] Verder kan er worden gedacht aan autonome systemen die bij defensie ‘saaie, vieze en gevaarlijke’ taken overnemen, zoals bijvoorbeeld zelfrijdende voertuigen die zwaar materiaal kunnen dragen of personeel uit vijandelijk gebied kunnen trekken. Ook kan AI ingezet worden om het situationeel inzicht te vergroten over de gevechtsruimte en om besluitvorming voor gerichte inzet van middelen te ondersteunen (informatie gestuurd optreden). Bovendien is AI cruciaal geworden in het detecteren, voorspellen en adequaat kunnen reageren op cyberaanvallen.

Figuur 1: Graden van waarde van AI[13]
Om echt impact te maken is het zaak dat AI-innovaties op grotere schaal worden toegepast en dat de weg van proeftuinen naar volledige inzet makkelijker wordt gevonden. Technologie zoals opslag- en rekenkracht is hierbij niet langer de beperkende factor. Cloud-technologie maakt het makkelijker om op te schalen. Daarnaast heeft de coronacrisis een versnelling in de digitalisering teweeggebracht, waarbij een groot deel van de beroepsbevolking IT-vaardigheden heeft opgedaan die waardevol zijn voor AI-innovaties. Dit biedt kansen voor een grotere adoptie van AI-toepassingen.
Handreikingen voor een digitaal weerbaar Nederland
Om eerdergenoemde AI-gedreven dreigingen en aanvallen het hoofd te bieden, pleiten we voor een aanpak op verschillende niveaus. Op internationaal niveau zijn, net als tijdens de Koude Oorlog, diplomatie en internationale afspraken en richtlijnen cruciaal om te voorkomen dat de AI-wapenwedloop uit de hand loopt en AI op onethische wijze wordt ingezet.
Op nationaal niveau willen we het belang van samenwerking en kennisdeling benadrukken. Ten eerste is het delen van inlichtingen over cyberdreigingen van groot belang, zowel onderling als tussen inlichtingendiensten en bedrijven. Cyber- en AI-expertise uit de private sector is hierbij onmisbaar.
Ten tweede zal de publieke veiligheidssector meer moeten investeren in AI-innovatie. Niet alleen financieel, maar ook daadkracht en houding. Ook met de huidige middelen en juridische kaders is er meer mogelijk dan er nu gebeurt. Zo worden mogelijkheden voor het proactief opsporen en hacken van cybercriminelen nog onvoldoende benut.[14] Hierin kan AI ingezet worden bij het identificeren van verdacht netwerkverkeer en hackpogingen in gigantische hoeveelheden (log)data.
Wat kunnen organisaties zelf doen om AI-kansen te benutten? Ten eerste is het belangrijk dat er een heldere en gedragen AI-strategie is. In welke vaardigheden is de organisatie uniek of leidend? Zet AI-innovaties daarop in om force multipliers te creëren.
Ten tweede zijn multidisciplinaire en diverse AI-teams een must. Deze dienen niet alleen uit techneuten en data scientists te bestaan. Domeinexperts kunnen de juiste input geven voor het ontwikkelen van algoritmes zodat het AI-systeem kan leren om goede en foute antwoorden te onderscheiden.[15] De beschikbaarheid van privacy- en informatiebeveiligingsexperts vormt vaak een bottleneck, terwijl zij essentieel zijn voor de voortgang en acceptatie van een AI-oplossing. Diversiteit in termen van leeftijd, gender, cultuur en ideeën zorgt voor creativiteit en het minimaliseren van vooroordelen in algoritmen. Verklein daarbij de afstand tussen het AI-team, de gebruikers en de maatschappelijke omgeving waarin AI wordt toegepast. Dit bevordert de relevantie en acceptatie.[16]
Ten derde zijn proof of concepts met AI een manier op laagdrempelig te beginnen in een veilige leeromgeving en de toegevoegde waarde aan te tonen voordat de oplossing wordt geïmplementeerd.[17] Het inzetten van AI in de veiligheidssector vraagt meer aandacht voor nauwkeurigheid en rechtvaardigheid dan bijvoorbeeld een recommendation engine voor films en tv-series. Dit vraagt om extra aandacht voor het testen voordat het systeem operationeel wordt ingezet. De grootste bottleneck zit echter in de implementatie. Dit vraagt van een organisatie dat deze een proces heeft ingericht om innovatieve ideeën naar een werkende oplossing te brengen en na evaluatie desgewenst te implementeren. Hierbij is niet alleen AI-expertise cruciaal, maar ook verandermanagement en een volwassen moderne IT-organisatie die het snel inpassen van nieuwe toepassingen mogelijk maakt. (Zie ook ons artikel in TiV 2021 ‘Willen, moeten, kunnen: de weg naar informatiegestuurd werken’, waarin we ingaan op hoe de veranderbereidheid in de organisatie kan worden versterkt.)
Ten vierde vraagt effectief en ethisch gebruik van AI-systemen om specifieke vaardigheden. Alle werknemers hebben een basisniveau datageletterdheid nodig zodat kansen voor AI worden gezien en benut. Dit betekent zeker niet dat iedereen moet kunnen programmeren, maar wel dat medewerkers kennis hebben over hoe data van waarde kan zijn en dat datakwaliteit cruciaal is om tot betrouwbare inzichten te komen. Daarbij is het kritisch kunnen beoordelen van aanbevelingen door AI-systemen van belang om te zorgen dat de menselijke maat bij het gebruik van algoritmen niet verloren gaat. Zeker in de veiligheidssector kunnen besluiten die grote impact kunnen hebben op de levens van mensen niet zonder meer volledig uit handen worden gegeven. Daarnaast is het van belang dat cyber awareness onder medewerkers wordt vergroot om de organisatie weerbaarder te maken. Zo trainen veel bedrijven tegenwoordig hun personeel op het herkennen van steeds geavanceerdere phishing e-mails. Behalve het trainen en opleiden van het huidige personeelsbestand betekent dit ook het aantrekken van geschikt personeel.
Ten vijfde mag het belang van datamanagement niet worden onderschat. Data is het bloed van een organisatie en dient daarom beschouwd te worden als een vitaal bedrijfsmiddel. Reken maar eens uit wat het kost om verloren data opnieuw op te bouwen of aan te schaffen. Plannen, beleid, programma’s en processen om data te beschermen en de waarde ervan te vergroten zijn niet zo sexy als AI, maar minstens zo belangrijk. Bovendien kan AI een rol spelen in het slimmer of sneller uitvoeren van datamanagementactiviteiten, zoals data profiling.
Ten zesde is het belangrijk om te investeren in methoden en technologieën specifiek voor digitale weerbaarheid, zoals AI voor inspectie van software, strenge beveiliging voor certificaten en gedistribueerde beveiligingscontroles. Daarnaast adviseren we red teaming, waarbij wordt gepoogd AI voor de gek te houden en daarmee weerbaarder te maken tegen vijandige aanvallen.
Tenslotte wordt vertrouwen in AI opgebouwd door kleine stukjes verantwoordelijkheid aan het systeem te delegeren. Net zoals je stapsgewijs kinderen steeds meer verantwoordelijkheid geeft bij een taak totdat ze steeds zelfstandiger worden.
Conclusie:
De Nederlandse veiligheidssector moet maximaal profiteren van de kansen die AI biedt om de weerbaarheid te versterken tegen AI-gedreven dreigingen. AI wordt slimmer, verantwoordelijker en schaalbaarder. Dit biedt legio kansen om de informatiepositie te verbeteren, processen te automatiseren en zich te wapenen tegen vijandige actoren, die ook flink inzetten op deze technologie.