In 2018 ging VRT-journalist Tom Van de Weghe, na vijf jaar correspondentschap in China en vier jaar in de VS, een nieuwe uitdaging aan: een fellowship aan de prestigieuze Stanford University, in het hart van Silicon Valley. Een jaar lang focuste hij er op de gevaren van deepfakes in de media, en hoe artificiële intelligentie kan helpen bij de bestrijding ervan. “Academici hebben te veel oog voor de mogelijkheden van AI en vergeten vaak de nodige veiligheidsgordels in te bouwen.”
Het John S. Knight Fellowship dat Tom Van de Weghe in 2018 kreeg en hem toeliet onderzoek te doen aan Stanford University, is zonder meer prestigieus te noemen: de universiteit staat wereldwijd in de topdrie – onder meer Google en NVIDIA zagen er het levenslicht – en er binnen geraken is bijzonder moeilijk. “De kans dat je er als student kan beginnen, is zo’n vijf procent maar de aanvaardingsgraad binnen het Fellowship ligt met één procent nog lager”, zegt Van de Weghe.
“Dat ik geselecteerd werd, was dan ook een hele eer. En voor mij tegelijk een uitgelezen kans: ik vond namelijk dat we als journalisten weliswaar veel schreven over artificiële intelligentie, maar nauwelijks begrepen wat deze technologie precies inhoudt. Mijn onderzoeksvoorstel, waar ik toch enkele maanden over heb gedaan en waar ik ook mijn contacten binnen de Gentse tech scene voor heb aangesproken, draaide concreet rond deepfakes in de media, hoe die door AI gegenereerd kunnen worden, maar ook hoe we die met AI kunnen herkennen.”
“Die onderzoeksvraag was in 2017 nog behoorlijk nieuw, wat wellicht een belangrijke reden was waarom ik geselecteerd werd. Daarnaast zal mijn ervaring in China en de VS ongetwijfeld een rol hebben gespeeld.”
Geen sabbatical in Stanford
Eenmaal in Stanford bestond het jaar van Tom Van de Weghe enerzijds uit onderwijs rond AI – met docenten als Fei-Fei Li die ImageNet ontwikkelde, en Andrew Ng, één van de vaders van deep learning – en anderzijds uit het tien maanden durende fellowship zelf, waarvoor hij binnen de campus op zoek ging naar de juiste partners om een oplossing te ontwikkelen voor de vraagstelling uit zijn onderzoeksvoorstel.
“Beschouw het dus zeker niet als een sabbatical, ik denk dat ik daar harder gewerkt heb dan hier”, lacht hij. “Maar dat zie ik niet als een minpunt, integendeel: ik kwam er terecht in een snoepwinkel, een soort Club Med voor mensen die geboeid zijn door AI.”
“Bij dat zoeken naar partners viel me evenwel snel iets op: de professoren en researchers die ik aansprak, beschouwden deepfakes niet echt als een probleem. Ze gingen er van uit journalisten dat te veel opbliezen, en ze vergeleken het met Photoshop: daar waren toch ook geen problemen mee?”
“Ik heb daar op dat gebied echt een uphill battle moeten voeren, maar door te sensibiliseren ben ik er gelukkig in geslaagd de nodige partners uit verschillende disciplines te vinden, met wie ik uiteindelijk een Deepfake Research Team heb gevormd. Helaas zat het Fellowship er na een jaartje al op – eigenlijk veel te kort gezien de enormiteit van AI als fenomeen. Maar de optelsom van Trump die buitenlanders de VS uit wilde, een gezin met jonge kinderen en een klein huurappartement vlakbij de campus voor 3.300 euro per maand betekende maar één ding: terug naar huis!”
“Nu, het heeft wel zijn vruchten afgeworpen”, geeft Van de Weghe nog mee. “Zo ben ik in het afgelopen jaar van Japan tot Georgië gevraagd om er te gaan spreken over de rol van AI en deepfakes in onze samenleving.”
Veiligheidsgordels in AI
Academici die zo licht gingen over de risico’s van nieuwe technologie: dat klinkt wat vreemd, maar het verbaasde de VRT-journalist eigenlijk niet. “Ik heb al vaker vastgesteld dat journalisten sneller de gevaren inzien van fenomenen als deepfake video’s en fake news, onder meer uit eigen ervaring (Tom Van de Weghe werd in 2008 fysiek aangevallen bij een reportage in China, iets wat de overheid achteraf afdeed als fake news; red.). Veel wetenschappers creëren daarentegen iets zonder bij de mogelijke gevolgen en gevaren stil te staan. Kijk naar auto’s: hoe lang heeft het geduurd vooraleer die van veiligheidsgordels werden voorzien?”
Vandaag wordt heel wat nieuwe technologie ontwikkeld die potentieel misbruikt kan worden, maar waarin op hetzelfde moment geen veiligheidsgordels worden ingebouwd
“Vandaag wordt heel wat nieuwe technologie ontwikkeld die potentieel misbruikt kan worden, maar waarin op hetzelfde moment geen veiligheidsgordels worden ingebouwd. Zo waren er aan Stanford PhD-studenten een tool aan het ontwikkelen waarmee een computer om het even welke woorden in de mond kan leggen van iemand die op video is opgenomen, dus ook dingen die nooit werden gezegd. De gevaren daarvan: die studenten stonden daar totaal niet bij stil, het ging hen meer om ‘kijk eens wat we kunnen’.”
Zoeken naar een naald in de hooiberg
Dat mogelijke misbruik van AI legt nog een ander gevaar bloot: de perceptie. Nog al te vaak wordt gedacht dat artificiële intelligentie jobs van mensen zal afnemen en op termijn via zelfsturende systemen de macht zal overnemen, waar zoveel sciencefictionfilms op zinspelen. “Mede daarom werd aan Stanford het Human Centered A.I. Institute opgericht, om de mens weer front and center in het AI-verhaal te plaatsen”, aldus Van de Weghe. “En om te benadrukken dat deze technologie ons professionele leven net beter kan maken.”
“Ook bij journalisten leeft die vrees dat hun job zal worden vervangen. Maar AI kan net heel dankbaar zijn om bepaalde repetitieve taken te automatiseren – bijvoorbeeld de analyse van beursberichten of het genereren van weerberichten – of om gigantische bergen data te doorploegen op zoek naar die ene naald in de hooiberg. Op die manier zullen journalisten meer tijd hebben om zich met kwaliteitsjournalistiek bezig te houden – bij persbureau AP, dat al jarenlang met artificiële intelligentie werkt, gaat dat zelfs om 25 procent meer vrijgekomen tijd.”
“Het probleem is alleen dat journalisten vandaag nog te weinig bezig zijn met AI, omdat ze in hun werk in de eerste plaats focussen op wat is geweest of heel binnenkort zal gebeuren”, gaat hij verder. “Zo bereiden we ons te weinig voor op de impact die AI binnen pakweg vijf jaar op nieuwsredacties zal hebben, zodat ze hun hele businessmodel zullen moeten veranderen.”
“Daarom probeer ik nu binnen de VRT-nieuwsredactie dat bewustzijn erin te slijpen en de tanker in beweging te krijgen, maar ik merk dat de sense of urgency nog klein is, en de angst te groot. Ik hoop daarom dat de COVID-19-crisis op dat vlak een en ander in een stroomversnelling kan brengen. Al was het maar om de enorme hoeveelheid medische data die dagelijks binnenkomen te helpen verwerken en analyseren, zodat er sneller verhalen uit gefilterd kunnen worden.
Even vanzelfsprekend als elektriciteit
“Artificiële intelligentie kan binnen de journalistiek ook nieuwe jobs creëren, zoals de journalist als controlerende gatekeeper, die de AI-resultaten checkt op juistheid of neutraliteit. AI is namelijk even vooringenomen als mensen, aangezien het door mensen wordt gevoed. Die human touch zal onmisbaar blijven om te interpreteren.”
“Om al die redenen heb ik, in samenwerking met Google en de London School of Economics, recent de voor iedereen toegankelijke opleiding ‘AI voor journalisten’ gelanceerd. Al was het maar om de koudwatervrees weg te nemen, en de praktische voordelen van AI te tonen. Een wake-upcall als het ware, zodat we geen Luddieten worden (het luddisme was een beweging in het 19e-eeuwse Engeland die tegen elke industriële en technologische ontwikkeling gekant was; nvdr).”
“Want laten we wel wezen: AI zal hoe dan ook op korte of middellange termijn een vanzelfsprekendheid in ons leven worden, net zoals elektriciteit dat vandaag is. Hoeveel apps die we nu gebruiken werken trouwens al met artificiële intelligentie?”
AI als mindset
Tom Van de Weghe maakt sinds zijn terugkeer uit Stanford ook deel uit van het Team Data, Desinformatie en Technologie binnen de VRT, waar hij onder meer een AI-strategie voor de openbare omroep uitwerkt. “Ons uitgangspunt is niét: we hebben artificiële intelligentie, dus we gaan het toepassen. Nee, het is: wat is het probleem, en hoe kan AI dat mogelijk helpen oplossen? Bijvoorbeeld ons probleem van diversiteit: er komen te weinig vrouwen in VRT-programma’s. Nu tellen we de passages nog manueel, maar we zijn een tool aan het maken die dat automatisch bijhoudt, zodat wij met de resultaten aan de slag kunnen.”
Artificiële intelligentie is een mindset: we moeten er positief naar kijken, maar wel steeds met de nodige aandacht voor die veiligheidsgordels
“Daarnaast werken we aan AI als smart news assistant, zodat we uit onze enorme hoeveelheden data – bijvoorbeeld de antwoorden uit onze dagelijks bevragingen van 1.000 Vlamingen over wat hen bezighoudt – sneller verhalen kunnen detecteren. We moeten dus vooral blijven hameren op de positieve impact die AI op de media kan hebben. Want AI is een mindset: we moeten er positief naar kijken, maar wel steeds met de nodige aandacht voor die veiligheidsgordels.”
Terug naar China?
Tot slot willen we nog weten of Silicon Valley volgens hem écht het mondiale speerpunt is van innovatie, aangezien Tom Van de Weghe het voorrecht had ook vijf jaar in China te werken. “Ik denk dat er in Silicon Valley meer en beter baanbrekend AI-onderzoek gebeurt, maar dat de Chinezen koploper zijn in het vinden van praktische, werkbare toepassingen ervan”, antwoordt hij.
“Artificiële intelligentie is in China echt een soort nieuwe god. En of we dat nu leuk vinden of niet, ons leven zal steeds meer bepaald worden door wat in Azië gebeurt. Daarom, als ik ooit de kans zou krijgen, zou ik toch graag naar daar terugkeren. Als VRT-correspondent of - wie weet - om er een eigen AI-bedrijfje op te richten. Het entrepreneurschap heeft er bij mij altijd al ingezeten.”