Toepassingen die gebruik maken van artificiële intelligentie zijn vaak een mysterieuze black box: wat achter de schermen gebeurt, is een raadsel. Vooraleer we AI als beslissingsondersteunende tool kunnen inzetten, moeten mensen dan ook eerst begrijpen hoe AI-gebaseerde beslissingen tot stand komen. ‘Verklaarbare AI’ is de oplossing. Maar wat is dat, en welke voorwaarden zijn eraan gekoppeld?
Artificiële intelligentie: het is een begrip dat bij het brede publiek vaak synoniem is voor de – veelal dystopische – hersenspinsels van de sciencefictionindustrie. Het op macht beluste ‘Skynet’ uit de Terminator-saga en de dolgedraaide ‘HAL 9000’ uit 2001: A Space Odyssey zijn nu eenmaal geen fraaie voorbeelden van wat een ‘denkende’ machine zou kunnen aanrichten.
Maar terwijl de hollywoodiaanse interpretatie van AI de bioscoopzalen doet vollopen, wordt achter de schermen druk werk gemaakt van échte AI-toepassingen. Het is een avontuur dat startte begin jaren 50 van de vorige eeuw met de introductie van de ‘Turingtest’ (een objectieve maatstaf om te bepalen of een machine kan denken als een mens), al snel gevolgd door de officiële lancering van de term ‘artificiële intelligentie’ door de Amerikaanse computerwetenschapper John McCarthy in 1956.
Wanneer suggesties geven niet meer volstaat
Vandaag, tientallen jaren na het voorbereidende werk van wetenschappers zoals Turing en McCarthy, heeft artificiële intelligentie een voorname plaats in ons leven opgeëist. Slimme rijhulpsystemen, interactieve chatbots, vertaalsoftware, of digitale assistenten zoals Siri en Alexa: allemaal maken ze gebruik van AI.
Maar hoe indrukwekkend die toepassingen ook zijn, toch staat de technologie eigenlijk in haar kinderschoenen en is haar toegevoegde waarde vooralsnog beperkt tot het geven van suggesties.
“De tekstsuggestie-toepassing in WhatsApp is daarvan het voorbeeld bij uitstek”, zegt Nikos Deligiannis, AI-expert bij ETRO, een imec onderzoeksgroep aan de VUB. “Van zodra je een bericht begint te typen, reikt het algoritme achter de schermen letterlijk een aantal suggesties aan van wat het volgende woord in je zin zou kunnen zijn op basis van waarschijnlijkheden. Het systeem zelf heeft echter geen flauw idee van de situatie waarin je je bevindt, en welke boodschap je wil sturen.”
Kunstmatige intelligentie in staat stellen om snel en onafhankelijk beslissingen te nemen, is de volgende grote uitdaging
Ook in automotive en de medische praktijk worden we geconfronteerd met diezelfde tekortkomingen: ondanks alle intelligentie aan boord van een auto heeft een wagen nog steeds een menselijke bestuurder nodig; en een algoritme kan artsen wel helpen om snel hun aandacht te vestigen op een ‘interessant’ deel van een CT-scan, maar het zijn uiteindelijk de dokters die de nodige conclusies moeten trekken.
Nikos Deligiannis: “Eigenlijk kunnen we stellen dat AI ons vandaag vooral helpt om tijd te besparen – door complexe berekeningen onwaarschijnlijk snel uit te voeren; sneller dan een mens dat ooit zou kunnen. Maar kunstmatige intelligentie toelaten om snel en onafhankelijk beslissingen te nemen, met een impact op de mensen rondom zich: dat is de volgende grote uitdaging.”
Goochelen met honderden miljarden parameters
Los van de puur technologische stappen die we daarvoor moeten zetten, is het natuurlijk de vraag of mensen wel klaar zijn om hun lot in handen te leggen van een ‘denkende’ machine. Het is een erg complex vraagstuk, maar volgens Nikos Deligiannis staat of valt een succesvolle interactie tussen artificiële intelligentie en de mens met een (misschien wel) onverwachte factor – namelijk begrip.
“Als we AI-systemen - en hun beslissingen - voor de volle honderd procent willen vertrouwen, moeten we eerst en vooral begrijpen hoe die beslissingen tot stand komen. En precies daar wringt momenteel het schoentje”, duidt hij.
“In tegenstelling tot de beginjaren van AI kunnen we de berekeningen van de onderliggende algoritmes vandaag niet meer handmatig controleren. Ze zijn gebaseerd op complexe wiskundige modellen met soms wel honderden miljarden parameters; veel meer dan het menselijke brein kan bevatten. Het handmatig uitschrijven van één berekening zou honderden mensenlevens vragen en die tijd hebben we gewoon niet”, weet Deligiannis. “Vandaar dat moderne AI-systemen ook wel eens omschreven worden als een mysterieuze black box: je weet welke data als input gebruikt worden, en je ziet welk resultaat eruit rolt – maar wat er precies achter de schermen gebeurt, is vaak een raadsel.”
Een 21ste-eeuwse ‘FrankenstAIn’?
Het is niets minder dan een paradox: hoewel kunstmatige intelligentie door de mens werd gecreëerd, en eigenlijk op niets meer berust dan wiskundige code, toch gaat de onderliggende complexiteit ondertussen ons bevattingsvermogen te boven. Wil dat zeggen dat we met AI eigenlijk onze 21ste-eeuwse ‘FrankenstAIn’ hebben gecreëerd?
“Toch niet”, meent Nikos Deligiannis. “Uiteindelijk begrijpen veel mensen ook niet waarom hun auto het plots begeeft, gewoon omdat ze geen autotechnicus zijn. Iets ontdekken, uitvinden of ontwikkelen betekent niet noodzakelijk dat je er ook de volledige controle over hebt.”
Als we van verklaarbare AI een succesverhaal willen maken, moet iedereen erop kunnen vertrouwen
Maar feit is dus wel dat het niet langer duidelijk is hoe complexe AI-modellen hun data verwerken, en op welke data ze zich (al dan niet) baseren om tot een beslissing te komen. En dat kan tot problemen leiden.
Nikos Deligiannis: “Een berucht voorbeeld is een algoritme dat door middel van beelden getraind werd om paarden te herkennen. Met succes, trouwens: het scoorde erg hoog op het vlak van nauwkeurigheid. Maar wat bleek na een tijdje? Door een menselijke fout waren alle beelden met paarden voorzien van een bijschrift. Toen het algoritme daarachter kwam, besloot het dan ook om niet meer te focussen op de paarden/beelden zelf, maar gewoon te kijken of er een opmerking was toegevoegd.”
Inventief en helemaal onschadelijk, zou je denken. Tot je datzelfde algoritme verwerkt in het rijhulpsysteem van je wagen... Dat soort situaties kunnen we vermijden als we begrijpen hoe algoritmes beslissingen nemen, bijvoorbeeld door ons te ‘vertellen’ naar welk deel van een beeld ze kijken om tot een bepaalde conclusie te komen. Zo maken we AI verklaarbaar.
Verklaarbare AI: een basisrecht?
Volgens de Europese Commissie zou verklaarbare AI zelfs een basisrecht moeten zijn, van zodra artificiële intelligentie een directe impact heeft op de mensen rondom zich. Denk bijvoorbeeld aan algoritmes die gebruikt worden in de gezondheidszorg, of de kredietwaardigheid van iemand moeten inschatten (in functie van het toekennen van een lening). Verklaarbare AI staat dan ook hoog op de agenda van de Europese Artificial Intelligence Act die momenteel op tafel ligt.
“Binnen de wetenschappelijke wereld bestaat grotendeels consensus over de vier voorwaarden waaraan verklaarbare AI moet voldoen: de mens moet centraal staan, diverse doelgroepen moeten met de verklaringen aan de slag kunnen, en de kwaliteit ervan moet op een objectieve manier getoetst kunnen worden. En idealiter wordt de verklaring ook onmiddellijk - samen met de beslissing aangeleverd”, aldus Deligiannis.
Mensgericht, schaalbaar, toetsbaar ... en onmiddellijk beschikbaar
Als we van verklaarbare AI een succesverhaal willen maken, moet iedereen erop kunnen vertrouwen – ook (en niet in het minst) de absolute leek. Verklaarbare AI moet dan ook in de eerste plaats mensgericht zijn. Volgens Deligiannis zal het gebruik van (natuurlijke) taal daarin een sleutelrol spelen.
“Vandaag doen AI-experts vaak een beroep op visualisaties om te begrijpen hoe een algoritme tot een bepaald besluit is gekomen. Denk bijvoorbeeld aan een heatmap die door middel van kleurcodes weergeeft welke elementen (minder) zwaar doorwegen in de besluitvorming. In de praktijk zijn heatmaps echter helemaal niet zo eenvoudig te interpreteren”, zegt hij. “Volgens ons is het gebruik van natuurlijke taal – de taal die we van jongs af aan op school leren – een pak transparanter. Bijkomend voordeel is het inclusieve karakter van zo’n benadering: je kan een verklarende tekst lezen, overzetten naar tig andere talen, en automatisch omzetten in gesproken taal voor blinden of slechtzienden.”
Twee andere belangrijke voorwaarden waaraan verklaarbare AI moet voldoen, zijn schaalbaarheid en toetsbaarheid. Als je bijvoorbeeld AI-technologie in de medische praktijk gebruikt, dan moeten verklaringen zowel op maat van de arts, de verpleegkundige én de patiënt geformuleerd worden. De oplossing moet met andere woorden schaalbaar zijn naar verschillende doelgroepen. Maar tegelijk moeten we ook werk maken van objectieve manieren om de kwaliteit van de aangereikte verklaringen te toetsen.
“En tenslotte is snelheid eveneens van cruciaal belang”, vervolgt Deligiannis. “Als je intelligente rijhulpsysteem plots zegt: “Opgepast! Ik wijk uit naar links omdat er een obstakel op de weg ligt!” – dan wil je dat meteen weten, niet twee minuten nadat de wagen is uitgeweken. In de praktijk zal het er dus op aankomen om de verklaring samen met de beslissing aan te leveren.”
“Als we AI op termijn ook echt als beslissingsondersteunende tool willen inzetten, dan zijn dat de aspecten waarop we moeten focussen. De uitdaging is gigantisch, maar het zijn alleszins de elementen die wij als onderzoeksgroep erg belangrijk vinden. Als mensen niet begrijpen hoe een bepaalde beslissing tot stand komt, gaan ze het AI-systeem achter de schermen immers ook nooit vertrouwen”, besluit hij.