Hoewel artificiële intelligentie alomtegenwoordig is, verloopt de implementatie in het bedrijfsleven tot nu toe relatief traag. Een betere kennis - en bewustzijn - over de mogelijkheden van AI kan de acceptatie ervan versnellen. Mieke de Ketelaere, programmadirecteur AI bij imec, plaatst 5 gangbare percepties over AI voor bedrijven in het juiste perspectief.
Mythe 1: AI gaat enkel over data en algoritmen
Voor wie nog in de 20stee eeuw leeft: ja. Tot en met de AI-hype in de jaren negentig was kunstmatige intelligentie een wetenschappelijke discipline die zich vrijwel uitsluitend bezighield met data en algoritmen.
In de afgelopen decennia is het veld echter volwassen geworden. Vandaag is AI dan ook een integraal onderdeel van geautomatiseerde beslissingssystemen in de kern van wat we als individuen en organisaties doen. Menselijke en procesgerelateerde aspecten zijn met andere woorden een belangrijk onderdeel geworden van AI-onderzoek, -ontwikkeling en -implementaties.
Omdat AI integraal deel uitmaakt van automatische beslissingssystemen, is de ontwikkeling in toenemende mate gedreven door mens- en procesgerelateerde aspecten
Ik herinner me een gesprek met een groot bedrijf waarin we spraken over geautomatiseerde systemen en datagestuurde oplossingen die, gevoed door klantgegevens en slimme sensoren, de ervaring van hun klanten konden verbeteren. Na zowat een uur vroegen onze gesprekspartners aan de andere kant van de tafel: “Dit ziet er allemaal veelbelovend uit, maar moeten we ook eens niets doen met AI?” En dat terwijl alles wat we al hadden besproken inherent mogelijk werd gemaakt door AI-implementaties. Maar omdat we de term zelf niet hadden gebruikt, was dit niet helemaal duidelijk voor de managers met wie we spraken.
Het is een mooie anekdote die enerzijds de legitimiteit van hun vraag illustreert op basis van veronderstellingen uit het verleden, en anderzijds het bewijs dat we AI kunnen ‘verkopen’ zonder het te moeten inzetten als marketingterm of hippe slogan.
Mythe 2: Ik heb een massa gegevens, dus er moet iets mee te doen zijn
Opnieuw zou mijn eerste antwoord ‘ja’ kunnen zijn. Net zoals je - met wat geluk en de juiste vaardigheden - waarschijnlijk een acceptabele maaltijd kan maken met ingrediënten die uit een willekeurig gevulde koelkast komen.
De hamvraag is echter: Wat wil je precies bereiken? In het voorbeeld van de koelkast kan het snel bij elkaar gooien van een aantal ingrediënten effectief een oplossing zijn als je snel wat magen moet vullen en geen tijd meer hebt om te gaan winkelen. Maar ik zou nu niet meteen adviseren om op basis van dat principe een restaurant te beginnen.
En hetzelfde geldt voor AI-projecten; niet op zijn minst omdat zulke projecten - van gegevensselectie tot implementatie - veel meer middelen vragen dan het koken van een maaltijd. Daarom moet elk AI-project uitgaan van een bedrijfsvraagstuk, en niet van de (beschikbare) gegevens.
Mythe 3: Ik heb een top datawetenschapper aangeworven, dus zit mijn bedrijf gebeiteld
Om in de metafoor van het restaurant te blijven, heb ik dan volgende vraag: Als je een sterrenchef in dienst neemt om wortelen te snijden en aardappelen te wassen, zal die dan gemotiveerd zijn om te blijven en je restaurant op de kaart te zetten?
Hetzelfde geldt voor datawetenschappers. AI is veel meer dan enkel de complexe algoritmes en ingenieuze data-analyses. Er komt heel wat ander werk bij kijken, zoals het harmoniseren, opschonen en voorbereiden van de nodige datasets. Voor die essentiële voorbereidingen en ondersteuning klop je beter aan bij een data ingenieur dan bij een datawetenschapper. En minstens even belangrijk zijn alle niet-technische competenties die om de hoek komen kijken.
De adoptie van AI in de industrie blijft momenteel hangen op zo’n tien procent. En dat heeft veel te maken met het feit dat nog te veel AI-projecten worden aangevlogen vanuit de technische kant; er is vooralsnog te weinig aandacht voor zaken als feedback van, en het draagvlak bij, de betrokkenen en eindgebruikers.
Elk zichzelf respecterend AI-team bestaat dan ook niet alleen uit datawetenschappers en ingenieurs, maar bouwt eveneens op experts en expertise in psychologie, sociologie, bedrijfsvoering, juridische en ethische aspecten - en betrekt ook de eindgebruiker actief van bij de start van het project.
Mythe 4: AI is een zwarte doos, dus ik kan nooit begrijpen en vertrouwen wat het doet
Hoewel er - helaas - een gedeeltelijke waarheid schuilt in die uitspraak, beschouw ik het toch als een mythe die dringend ontkracht moet worden.
Ja, er zijn (en ontstaan) helaas nog veel AI-implementaties waarvan de interne logica achter hun beslissingen (al dan niet bewust) ontoegankelijk zijn voor buitenstaanders. Ter verdediging claimen dat ook menselijke beslissingen niet altijd te doorgronden zijn, zou een te gemakkelijke uitweg zijn. Dus ja, ook ikzelf weeg voortdurend het vertrouwen af dat ik aan dergelijke systemen wil geven.
Belangrijker is echter het feit dat er tal van mogelijkheden voorhanden zijn om beter te doen. We hebben er zelfs een term voor: ‘verklaarbare AI’. Dat zijn implementaties die niet alleen hun beslissingen presenteren, maar ook een uitgebreid inzicht geven in de redenen waarom die beslissing is genomen.
Een grote en gedeelde verantwoordelijkheid ligt bij alle betrokken stakeholders: zij moeten de tijd en middelen opeisen waardoor verklaarbaarheid bij elk AI-project van bij de start kan worden meegenomen
Een voorbeeld: een medisch AI-algoritme kan een arts helpen bij het stellen van een diagnose (bijvoorbeeld voor het opsporen van een tumor), omdat het veel efficiënter door duizenden patiëntendossiers en wetenschappelijk papers kan scannen dan eender welke arts of mens. Toch moet de arts altijd kunnen begrijpen waarom het algoritme een specifiek element op een medische scan of beeld al dan niet als tumor herkent. Op die manier behoudt de arts de uiteindelijke controle om de voorgestelde diagnose te bevestigen of te weigeren. En dat op basis van de contextuele en medische ervaring die een AI-systeem nooit zal kunnen evenaren.
Hoewel er een groot aantal bouwblokken beschikbaar zijn om beslissingen van AI te verklaren, stel ik echter vast dat AI-ontwikkelaars daar niet altijd van op de hoogte zijn. Of dat ze simpelweg niet de tijd nemen (of krijgen) om die bouwblokken te integreren in hun eindoplossing. Daar ligt volgens mij een grote en gedeelde verantwoordelijkheid bij alle betrokken stakeholders; zij moeten de tijd en middelen opeisen waardoor verklaarbaarheid bij elk AI-project van bij de start kan worden meegenomen.
Mythe 5: Ik kan niks met AI vanwege de privacywetgeving
Een aantal mensen beweert dat de privacyregels de mogelijkheden om met AI te werken in de weg staan. Denk aan de Europese algemene verordening inzake gegevensbescherming (GDPR). Het tegendeel is echter waar!
De regelgeving, waarvan GDPR een voorbeeld is, biedt net een kader dat beschrijft hoe je gegevens kan verzamelen, beheren en uitwisselen. In plaats van te verbieden, maakt het dus gegevensverwerking mogelijk en zorgt er meteen ook voor dat dat gebeurt met respect voor de rechten en standpunten van alle betrokkenen en belanghebbenden.
Dat gezegd zijnde, ben ik me er terdege van bewust dat er een andere kant is aan het verhaal. Zo nemen burgers en consumenten, zoals ik er mezelf ook op betrap, niet altijd de tijd om zich volledig in hun rechten te verdiepen en klikken ze te gemakkelijk op ‘accepteer alle cookies’. Het is maar één voorbeeld waarom GDPR op zichzelf niet zal leiden tot de bevredigende situatie waar we allemaal op hopen. Daarom ook dat in Europese initiatieven zoals GAIA-X vertegenwoordigers uit de politiek, het bedrijfsleven en de wetenschap voorstellen uitwerken voor de volgende generatie data-infrastructuur voor Europa. Eén die specifiek gericht is op meer gegevensonafhankelijkheid, en toch innovatie bevordert.
Een aanvullend initiatief op wereldschaal zijn de standaarden die voortvloeien uit Solid. Solid is een initiatief gestart en geleid door Tim Berners-Lee (uitvinder van het wereldwijde web), ondersteund door teamleden van over de hele wereld (zoals Ruben Verborgh, professor gedecentraliseerde technologie – en onderzoeker bij IDLab, een imec onderzoeksgroep aan de Universiteit Gent). Solid wil het evenwicht herstellen tussen het delen van data en dataprivacy. Het uitgangspunt is dat data niet altijd op een centrale server moet staan, maar opgeslagen kan blijven in de buurt van waar het ontstaat. En dat de eigenaar ervan vervolgens in meer of mindere mate kan bepalen waar de data naartoe mag reizen en wie er gebruik van mag maken.
Het is door dat soort initiatieven, en ook de talrijke ethische comités op nationaal en internationaal niveau, dat ik vrij optimistisch ben over de rol van de wetgeving in de context van AI. Ik vergelijk het vaak met de automobielindustrie. Sinds de begindagen van de auto (en nu nog steeds) gebeuren er veel ongelukken. En ondanks alle verkeersregels, boetes, preventiecampagnes en veiligheidssystemen blijven automobilisten te hard of dronken rijden. Toch heeft dit nooit geleid tot een verbod op auto’s. En gelukkig maar, want de toegenomen mobiliteit en bewegingsvrijheid die de auto ons gebracht heeft, ligt aan de basis van vele technologische en maatschappelijke evoluties.
Die voortdurende zoektocht naar de juiste balans tussen het bevorderen van de positieve effecten en het beteugelen van de negatieve zou wat mij betreft ook een ideale situatie zijn voor de ontwikkeling van AI. Want het laatste wat we willen, is dat de wet het gebruik van AI zou verbieden...