Wordt fictie feit met deepfakes?

Afgelopen zomer hadden wij het tweede seizoen van de populaire Star Wars serie The Mandalorian net gekeken (sorry, wij zijn fan en pas op: spoiler alert!) toen wij een berichtje met elkaar bespraken over het gebruik van deepfake technologie om een jonge Luke Skywalker in de laatste scène van het seizoen te tonen. YouTuber Shamook had na het zien van deze beelden in vier dagen met behulp van open source software de algoritmen zo goed getraind, dat hij een veel betere deepfake creëerde dan die de Star Wars-maker had geproduceerd. Lucasfilm was gelukkig zo slim om hem gelijk een baan aan te bieden. Zij vonden het schijnbaar net zo verbluffend als wij dat iemand dit met een gratis tool in korte tijd voor elkaar had gekregen.

Op 11 november gaf de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) haar meest recente rapport uit: Opgave AI. De nieuwe Systeemtechnologie. Een lijvig juweeltje van meer dan 500 pagina’s, maar met een heldere boodschap: Artificiële Intelligentie (AI) is een systeemtechnologie die de samenleving fundamenteel zal veranderen. De WRR beschrijft vijf opgaven die we hebben, waarbij wij bij het lezen van de eerste opgave – Demystificatie van wat AI is en kan – al volop beelden en geluid hadden. Letterlijk, door Luke Skywalker! Maar als AI als systeemtechnologie moet worden beschouwd, zoals de WRR bepleit, betekent dat voor ons ook dat we het als systeemrisico zouden moeten beschouwen: een systeemtechnologie is volgens de WRR “alomtegenwoordig, kent continue verbetering en maakt complementaire innovatie mogelijk”. AI als systeemrisico is in onze ogen het risico dat geïntroduceerd wordt als AI-technologie in zoveel systemen wordt toegepast dat er onderlinge, veelal complexe systeemafhankelijkheden ontstaan die voor ongewenste cascade effecten kunnen zorgen. We moeten dus de systeemeffecten goed doordenken en onwenselijke ontwikkelingen zoveel mogelijk voor zijn.

De technologie waarmee de jonge Luke is gecreëerd, maakt dit inzichtelijk. Afgelopen jaar lazen wij over mooie voorbeelden van deepfakes, zoals gebruikt voor trainingsdoeleinden, traumaverwerking, verwerkt in satire of een virtuele assistent. Prachtige ontwikkelingen, maar zoals met elke technologie zit er ook een ‘donkere kant’ aan. Want met deze deepfake technologie kun je mensen misleiden. Toepassingen laten zich raden: denk aan een nieuwe vorm van phishing door cybercriminelen, het creëren van deepfake wraakporno (als alternatieve wijze van afpersing) en nepnieuws.

Vervolgens kun je je als bestuurder de vraag stellen: als iemand slachtoffer is geworden, bij wie moet die zich melden? Aangifte doen bij de politie? Melden bij een internetprovider? En wat kunnen deze instanties ermee? De hierboven genoemde misbruikscenario’s van deepfake technologie laten zien dat de gevolgen van een goedgemaakte deepfake video desastreus kunnen zijn. Volgens sommige experts is er een grote toename van gegeneerde media te verwachten – zoveel dat 90 procent van de content synthetisch is over ongeveer zes jaar. En misschien is er daardoor nog wel een belangrijker onderhuids effect te duiden: we gaan beeldmateriaal als minder betrouwbaar inschatten. Ook zouden we authentieke beelden in twijfel kunnen trekken, waardoor een belangrijke boodschap makkelijk kan worden verdraaid. Wat vooral belangrijk is: ons vertrouwen in elkaar, de overheid en de maatschappij als geheel kan daardoor worden ondermijnd.

Daarom zijn we er niet met nieuwe manieren van aangifte doen bij diensten die weten waarover het gaat. Het vereist een vinger aan de pols, transparantie in beleid, maar ook in technologie en daarom geven we graag de volgende overwegingen mee:

  1. Bestrijd misbruik door detectiealgoritmen te ontwikkelen, zodat er een waarschuwing bij filmpjes komt die vertelt dat er deepfake technologie is gebruikt.
  2. Denk na over hoe je proactief kan aantonen dat mediaberichten authentiek zijn, bijvoorbeeld met waarmerken. En probeer zoveel als mogelijk bestaande standaarden hiervoor te gebruiken. Omarm dit als overheid.
  3. Behoud een actueel overzicht van de vorderingen van deepfake
  4. Focus niet specifiek op deepfake technologie (en toepassingen daarvan), maar iets breder op synthetische media.
  5. Focus niet alleen maar op preventie, maar zorg ook voor repressie en nazorg. Misbruik zal toch wel gaan gebeuren. Weten wie wat waarmee moet doen bij een melding of aangifte is net zo belangrijk. Net zoals hoe het werkt in de veiligheidsketen. Investeer in elk onderdeel ervan.
  6. En als laatste misschien een iets onorthodoxere: ga het gesprek over een juiste toepassing van censuur niet uit de weg en bekijk de uitdaging met een ethische bril of gebruik ethische richtlijnen zoals uitgegeven door de Europese Commissie. Er is veel te doen (geweest) over het verwijderen van ongepaste berichten door de Twitters en YouTubes van deze wereld, maar dat doen ze inmiddels wel met de door hen beheerde media. Bij grootschalige toepassing van ongewenste deepfake mediaberichten die tot desinformatie leiden, zou een stuurloze maatschappij met aan hun lot overgelaten individuen een donker alternatief kunnen zijn.

Terug naar het WRR-rapport. Omdat technologieontwikkeling wellicht neutraal is, maar technologietoepassing (bedoeld of onbedoeld) niet, moet AI niet alleen als systeemtechnologie worden beschouwd, zoals de WRR bepleit, maar ook als systeemrisico. Het is belangrijk een specifiekere Nederlandse of Europese ambitie en strategie uit te werken, waarbij niet alleen wordt gekeken naar de mogelijkheden, maar ook naar de onwenselijkheden van de toepassingen van AI en ethische dilemma’s die daarmee gepaard gaan: ook om AI-evangelisten niet alleen op hun blauwe ogen te geloven – want die zouden wel eens gedeepfaket kunnen zijn.

Om met de gevleugelde ethische code van de Mandalorian af te sluiten:

This is the way.”

Delen

Reageer

*

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *