
Wat is een Deep Fake applicatie?
Onder de motorkap is een Deep Fake applicatie geen magie, het is enkel pure wiskunde. De applicatie maakt gebruik van een Deep learning-toepassing, wat betekent dat het afhankelijk is van neurale netwerken om zijn functies uit te voeren. Neurale netwerken zijn softwarestructuren die ruwweg zijn ontworpen naar het menselijk brein.
Wanneer men een neuraal netwerk veel voorbeelden geeft van een bepaald type gegevens, (bijvoorbeeld foto’s van een persoon), leert het functies uit te voeren. Dit kan bijvoorbeeld zijn het gezicht van die persoon in foto’s detecteren, of in het geval van Deep Fakes het gezicht van iemand anders ermee vervangen.
Figuur 1: Gezichten vervangen met een Deep Fake applicatie

In bovenstaand figuur worden de gezichtsbewegingen van een onbekend iemand gekoppeld aan het gezicht van ex-president Obama. Wanneer de onbekende persoon praat zal het gezicht van Obama precies hetzelfde meereageren.
In Nederland is er nog geen officiële wetgeving over de verantwoordelijkheid of aansprakelijkheid bij het maken of delen van Deep Fakes. Sinds eind 2018 is er wel een kabinetsplan om nepnieuws te bestrijden. De overheid gaat de verspreiding van nepnieuws in Nederland onderzoeken. In aanloop naar de provincale en Europese verkiezingen in 2019 wil de overheid haar burgers beschermen tegen nepnieuws.
Welke mogelijkheden zijn er nu al om misbruik van Deep Fakes te voorkomen?
Kunstmatige intelligentie wordt gebruikt voor het maken van Deep Fake-video’s, maar kan echter ook helpen bij de bestrijding ervan. Door het herkennen van patronen kunnen algoritmes signalen zien die verklappen dat een video nep is. Voorbeelden van dat soort signalen zijn ogen die niet knipperen, het schaduwpatroon van het gezicht en de vervaging van beeldkwaliteit bij armgebaren.
Figuur 2: Softwareprogramma om realistisch knipperen te detecteren.

In figuur 2 wordt middels een softwareprogramma gekeken of in de video de persoon wel echt realistich knippert met als doel om echt en nep van elkaar te onderscheiden.
In Nederland werkt Theo Gevers, computerwetenschapper aan de Universiteit van Amsterdam, aan een plug-in voor browsers. Deze moet gebruikers erop wijzen wanneer een video een Deep Fake is. Ook platformen als Facebook en Google werken aan oplossingen voor het herkennen van Deep Fakes omdat via social media nieuws snel viraal kan gaan. Facebook heeft hiervoor een Machine Learning model gebouwd dat mogelijk valse foto’s of video’s detecteert. Deze worden, voor beoordeling, naar de feiten controleurs van facebook gestuurd (in 17 landen heeft Facebook afdelingen die feiten controleren). Verder passen feiten controlerende partners visuele verificatietechnieken toe als reverse image search en beeld-metagegevensanalyse om de inhoud van een video te beoordelen (Metagegevens zijn data over data. In het geval van video kun je bijvoorbeeld achterhalen op welk datum/tijd een video is gemaakt).
1: https://www.rijksoverheid.nl/actueel/nieuws/2018/12/12/kabinet-in-actie-tegen-desinformatie-in-aanloop-naar-verkiezingen
Google heeft bijvoorbeeld met spraaksynthesetechnologie de afgelopen jaren veel vooruitgang geboekt. Met Google DeepMind (de supercomputer van Google die werkt op basis van neurale netwerken) kunnen zeer realistische mensachtige stemmen worden gemaakt. Zoalsmelke technologie kan ook deze worden misbruikt. Daarom werkt Google aan state-of-the-art-technologie voor nep-audio-detectie in video’s.
In Amerika wordt in 2019 68 miljoen dollar voor DARPA (de militaire onderzoeksafdeling van de VS) vrijgemaakt om software te bouwen dat Deep Fakes kan herkennen. Deze software gaat nog veel verder dan het controleren van het knipperen met de ogen. Men gaat bijvoorbeeld ook kijken naar andere fysiologische kenmerken (zoals huidskleur en het kloppen van bloedvaten in het gezicht) om te achterhalen of een video authentiek is. Dat dit soort detectie software er komt is, vanuit democratisch oogpunt, erg belangrijk vanwege het risico van (mogelijke) beïnvloeding tijdens verkiezingen met gemanipuleerde video’s.
Het paradoxale in deze kwestie is dat artificiële intelligentie zowel wordt gebruikt voor het bestrijden én het creëren van Deep Fakes. Dit betekent dat de verspreiders van Deep Fakes juist ook artificiële intelligentie kunnen inzetten om fouten te detecteren en deze te corrigeren.
We dienen na te denken over een technologie die eigenlijk al in een veel eerder stadium (tijdens het creëren van video en niet achteraf middels detectie) een waarheidskenmerk aan een video koppelt.
Blockchain is de oplossing voor Deep Fakes
Blockchain, de op cryptografie gebaseerde technologie die transacties op een verifieerbare en permanente manier registreert, kan in de toekomst een belangrijke rol spelen om te achterhalen of een gemaakte video authentiek is en dat er niet mee is gemanipuleerd. Een voorbeeld:
Bodycams & de politie
Stel dat agenten tegenwoordig een bodycam dragen om, middels video, vast te leggen wat er gebeurt tijdens een aanhouding. Voor alle belanghebbenden (officier van justitie, rechter, politieagent, dader) bij een vervolging is het van groot belang dat er absoluut vertrouwen is in de waarheidsgetrouwheid van de video. Natuurlijk zal de politie zijn uiterste best doen om de authenticiteit van de video’s te bewaken, maar als het aanpassen van een video straks net zo gemakkelijk is als het plaatsen van een Instagram-filter, dan is het voor de acceptatie van de bewijslast essentieel dat te allen tijden bewezen kan worden dat een video niet is gewijzigd.
Een oplossing voor het bovenstaande scenario is dat er van elke video een unieke crypotografische handtekening wordt gemaakt. Deze vingerafdruk wordt geschreven naar een onveranderlijk blockchain grootboek (een lijst waarin alle gegevensmutaties onder elkaar worden bijgehouden) via een draadloze internetverbinding en in een smart contract vastgelegd. Hiermee wordt er een audit trail gemaakt van de video en is de integriteit geborgd (Bron: https://www.wired.com/story/the-blockchain-solution-to-our-deepfake-problems/).
Smart contracts zijn net als traditionele contracten op papier, overeenkomsten gebaseerd op een aantal voorwaarden en afspraken. Deze overeenkomsten zijn juridisch gebonden. In tegenstelling tot de papieren contracten zijn alle afspraken in smart-contracts elektronisch geprogrammeerd en worden alle afspraken decentraal in het blockchain-netwerk beheerd.
De cryptografische handtekening kan gegevens bevatten zoals de GPS-locatie van het beeldmateriaal, de tijd en datum waarop het werd opgenomen, het diafragma, de framesnelheid en zelfs de beelden. In figuur 3 ziet u een voorbeeld van hoe dit vastgelegd wordt.
Figuur 3: Cryptografische handtekening.

Wanneer de video wordt gedeeld of bekeken door een belanghebbende in de strafketen, wordt automatisch via het gedistribueerde grootboek vergeleken of de crypotografische blockchain-handtekening overeenkomt. Dit is een binaire vergelijking. De code komt overeen of niet. De video is authentiek of de video is gewijzigd.
Het Amerikaanse startup bedrijf Factom is hiermee al in een vergevorderd stadium. Ze hebben een technologie ontwikkeld, die door de sensoren en camera’s verzamelde gegevens op een blockchain opslaat. Deze gegevens worden beveiligd en hierdoor is de mogelijkheid tot wijzigen of verstoren geëlimineerd. Een belangrijke opdracht waaraan Factom momenteel werkt is het inzetten van deze technologie voor cameracontrole bij de Amerikaans-Mexicaanse grens.
Zonder een waarheidscheck kunnen in de toekomstige gerechtelijke processen, waarbij een video als bewijs dient, de verdediging als argument aanvoeren dat videobeelden makkelijk te manipuleren zijn. De verdediging hoeft misschien niet eens te bewijzen of een video blijkbaar is gewijzigd: alleen al het feit dat nep-video’s bestaan zal authentieke video’s delegimiteren. Dit vind ik voor de samenleving niet wenselijk.
Door op het moment van de video-opname een unieke identificatiecode te genereren en deze in een onveranderlijk blockchain-grootboek weg te schrijven en in een smart contact op te slaan, is de traceerbaarheid, authenticiteit en integriteit van de video altijd geborgd. Tevens zorgt de sterke encryptiecodering van de blockchaintechnologie er ook voor dat niet-gemandateerden niet bij de videobeelden kunnen komen.
In mijn optiek maakt dit alles blockchain-technologie een belangrijk middel om, in combinatie met ai-detectie, videomanipulatie te bestrijden.