Slimme wearables, zelflerende grasmachines, ChatGPT … Het valt niet te ontkennen dat technologie voor heel wat vooruitgang en extra comfort heeft gezorgd. Maar anderzijds stelt het ons ook voor ethische dilemma’s. Wat bijvoorbeeld als een zelfrijdende auto kiest voor de veiligheid van zijn passagiers, maar daarvoor wel een kleuter op straat moet aanrijden? Wetenschapper, ingenieur en ondernemer Filip Van den Abeele bundelde dertien dilemma’s in het boek Technologie twijfelt ook . “Ik voel me een beetje een handelsreiziger in technologische wetenschap.”
Als voormalig chef wetenschap bij de VRT (onder meer voor De Laatste Show en Ook Getest op Mensen) en specialist inzake Industrie 4.0, big data en artificiële intelligentie is Filip Van den Abeele een veelgevraagd spreker. Niet alleen op scholen en bedrijven, maar ook cultuur- en parochiecentra overal te lande.
“Ik ging daarheen als onversneden vooruitgangsoptimist en enthousiast STEM-ambassadeur”, vertelt hij, “maar vaak kreeg ik na mijn lezingen minder optimistische feedback. Zo kwam een vrouw naar mij die zei: je spreekt vol vuur over automatisering en robotica, maar intussen is mijn man wel zijn job kwijtgeraakt en vervangen door een robot. Anderen waren dan weer bezorgd dat artificiële intelligentie slimmer zou worden dan mensen, en nog een ander twijfelde om ingenieursstudies te beginnen, omdat hij vreesde dat we binnen tien jaar geen maakindustrie meer zouden hebben in Vlaanderen.”
Ik voel mij een beetje een handelsreiziger in technologische wetenschap die kennis komt uitdragen.
Weerhaakjes in het hoofd
“Al die vragen en bezorgdheden bleven bij het naar huis reden als weerhaakjes in mijn hoofd zitten. En ik vroeg me tijdens die vaak lange ritten af of ik misschien niet te naïef of warmbloedig was in dat bijna blinde vooruitgangsoptimisme. Dus besloot ik om op zoek te gaan naar zalf voor die hardnekkige wondjes in mijn hoofd, veroorzaakt door die weerhaakjes. Dat leidde uiteindelijk tot dit boek, waarin die zoektocht als het ware uitkristalliseert, en zowel de lusten als lasten van nieuwe technologie worden belicht.”
Maar is die angst voor en argwaan jegens nieuwe technologie bij het brede publiek dan terecht, willen we weten, of gewoon een kwestie van te weinig kennis over de materie? “Kijk, innovatie en technologische vooruitgang impliceren verandering, en verandering wekt bijna per definitie zo niet afkeer, dan toch drempelvrees en soms angst op. Als dat effectief gestoeld is op een gebrek aan kennis, dan voel ik mij altijd een beetje een handelsreiziger in technologische wetenschap die kennis komt uitdragen.
“Ik maak op dat vlak graag de vergelijking met het luddisme, een sociale beweging in het Engeland van de 19e eeuw die zich verzette tegen industriële en technologische ontwikkelingen. De luddieten gingen zelfs zover dat ze moedwillig mechanische weefgetouwen gingen vernielen, omdat ze hun werkzekerheid bedreigd zagen. Ik denk dat anno vandaag nog weinig mensen malen om het feit dat al het stikwerk uitbesteed is aan machines. Maar je merkt vandaag toch een vergelijkbare koudwatervrees.”
Soms merk ik dat de angst dieper zit dan gewoon onwetendheid, en dus ben ik me gaan verdiepen in de materie.
Gekleurde datasets
“Maar soms merk ik dat de angst dieper zit dan gewoon onwetendheid, en dus ben ik me gaan verdiepen in de materie. En dan stel je vast dat het voorbehoud vaak terecht is. Kijk, artificiële intelligentie en big data kunnen voor heel grote doorbraken zorgen op vlak van geneeskunde, gezondheidszorg, mentaal welzijn, enzovoort. Maar als artificiële intelligentie leert of traint op basis van datasets die gekleurd of biased zijn, dan zal het algoritme dat vooroordeel wiskundig bevestigen. En dan wordt het gevaarlijk natuurlijk. Nog zoiets: kan je de opvoeding van je kind zomaar overlaten aan een zorgrobot? Zo ben ik tot in totaal dertien ethische dilemma’s gekomen. Waarom dertien? Eerlijk gezegd omwille van de alliteratie met dilemma (lacht).”
Een zo’n dilemma gaat over de zelfrijdende wagen: mag die in een crisissituatie moedwillig een kind aanrijden als hij op die manier de inzittenden beschermt? “Ik denk dat een boordcomputer in zo’n situatie niet zal twijfelen en gewoon de meest logische of geprogrammeerde keuze zal maken”, aldus Filip. “Maar wie programmeert die keuze dan? Uiteraard een ingenieur die dat algoritme schrijft. Ik stelde echter tot mijn eigen verbazing vast dat er geen universele ethische wegcode bestaat voor zelfrijdende wagens. En dat is een probleem natuurlijk, zeker als je ook nog eens de culturele verschillen in rekening brengt. Wij in het westen zouden geneigd zijn het kind te sparen. Maar in Japan bijvoorbeeld, waar mensen net meer respect en ontzag voor de ouderen hebben, zouden die wellicht kiezen voor de bejaarde inzittende. In individualistische samenlevingen als Groot-Brittannië en de VS weegt het individu veel zwaarder door dan de groep, terwijl je Japanners sneller tot zelfopoffering ofte harakiri zal kunnen bewegen. Brazilianen dan weer een uitgesproken voorkeur om vrouwen te beschermen. Dus iedereen heeft zijn eigen cultuur en inborst, dus is het zelfs onmogelijk om een eenduidig moreel compas te definiëren voor zelfrijdende wagens.”
Het is niet omdat je technologie kan ontwikkelen, dat je dat ook per se moet doen. En al helemaal als er geen ethische code rond bestaat.
Blauwdruk toetsen bij moraalfilosoof
Op een bepaald moment zegt in Jurassic Park de filosoof, vertolkt door Jeff Goldblum: Your scientists were so preoccupied with whether or not they could, they didn't stop to think if they should. Met andere woorden: het is niet omdat je technologie kan ontwikkelen, dat je dat ook per se moet doen. En al helemaal als er geen ethische code rond bestaat. Geldt dat ook voor de zelfrijdende auto’s, willen we weten. “Ik denk dat dat een gerechtvaardigde observatie is”, antwoordt Filip. “Want je merkt inderdaad dat technologie zich met een rotvaart ontwikkelt, en dat die ethische dilemma's of morele implicaties pas achteraf duidelijk worden. Dus misschien is het ook wel een oproep om daar reeds van aan de tekentafel stil bij te staan. Dat je niet alleen werkt met ingenieurs, uitvinders, programmeurs, maar daarnaast af en toe een blauwdruk toetst bij een moraalfilosoof of ethicus.”
Net geen derde wereldoorlog
Ten slotte willen we graag weten wie de Stanislav Petrov wel mag zijn aan wie Filip het boek opdraagt. “Hij werkte voor het Russische leger, en in volle Koude Oorlogstijd stelde hij op een radarscherm vast dat een handvol raketten vanuit Amerika onderweg was naar Rusland, wat niets minder dan een provocatie was en het onvermijdelijke begin van de Derde Wereldoorlog. Petrov was de verantwoordelijke die dit onder de aandacht moest brengen van zijn generaal, die dan vervolgens op de rode knop zou drukken. Maar Petrov twijfelde: hij zag die raketten weliswaar naderen, maar hij was ook lucide genoeg om te zien dat er iets niet klopte. Ten eerste was er voor Amerika geen directe aanleiding om te provoceren. Ten tweede zou Amerika geen vijf raketten sturen als ze een aanval wilden opzetten, zoals hij die nu zag, maar minstens vijftig of honderd. Op basis van die redenering besloot hij de data van de technologie en zijn radarscherm niet te aanvaarden. En wat bleek? Het was effectief een atmosferisch effect geweest dat het radarsysteem in de war had gebracht.”
“Bij gratie van de authentieke intelligentie van een mens is een Derde Wereldoorlog vermeden kunnen worden. Daarom heb ik het boek opgedragen aan the man who saved the world: omdat op momenten dat technologie twijfelt, onze authentieke intelligentie altijd van cruciaal belang zal blijken. En al helemaal als het over big data en artificiële intelligentie gaat. Want stel dat een computeralgoritme aangeeft dat je beter preventief je linkerlong zou laten amputeren, omdat je een kans van 99 procent hebt om binnen het jaar een levensbedreigende longtumor te ontwikkelen: zou je dan ook niet graag een oncoloog aan je zijde hebben die, als een moderne Stanislav Petrov, een extra test wil laten doen om te zien of er niet ergens een foutje is gebeurd?”