De kracht van artificiële intelligentie is de laatste jaren met rasse schreden toegenomen. AI is vandaag de dag niet langer het voorrecht van multinationals en hippe bedrijven in Silicon Valley. Welke technologische evoluties hebben er precies voor gezorgd dat ook kleinere en middelgrote organisaties tegenwoordig een beroep kunnen doen op deze technologie om concrete problemen op te lossen? Een blik op verleden, heden en toekomst van AI.
Artificieel was niet altijd intelligent
AI is een breed begrip. In essentie draait het om het simuleren van intelligentie. En dat concept bestaat eigenlijk al heel lang. Denk maar aan het succes van Deep Blue, de supercomputer die in de jaren negentig schaakgrootmeester Garri Kasparov versloeg. Het grote voordeel van Deep Blue bestond vooral uit zijn brute rekenkracht, die toeliet om honderden miljoenen mogelijke zetten per seconde te berekenen.
Hoewel er uiteraard enkele slimme algoritmes aan het werk waren - voor de liefhebbers: voornamelijk minimax met pruning - was de AI van Deep Blue vooral gebaseerd op een combinatie van rekenkracht en menselijke intelligentie. Een team van schaakexperts en computerwetenschappers programmeerde zijn eigen kennis namelijk rechtstreeks in de schaakcomputer. Samen met ervaringsgebaseerde regels of zogeheten heuristieken vormden die menselijke inzichten de echte sterkte van Deep Blue. Die aanpak werkte prima, zolang het over complexe wiskundige problemen ging.
Dat is een hemelsbreed verschil met de verfijnde Deep Learning van tegenwoordig die aan een steile opmars bezig is. Deze vorm van AI kan namelijk autonoom leren. Deep Learning is in staat zelf patronen te ontdekken en vervolgens op eigen houtje intelligente strategieën uit te tekenen, zonder menselijke sturing.
Klassieke AI voor vliegtuigbouw
Als onderzoeker en data scientist analist en programmeur paste ik de klassieke AI-technieken vroeger vaak zelf toe. Een goed voorbeeld vinden we in de luchtvaart.
In de vliegtuigbouw draait alles om het zoeken naar een evenwicht tussen veiligheid en productiekost. Onzekerheden over materiaaleigenschappen en mogelijke productiefouten moeten altijd mee in rekening worden gehouden voor de berekening van veiligheidsmarges. Dat voorzorgsprincipe staat in schril contrast met de taak van vliegtuigingenieurs om een veilig vliegtuig te ontwerpen aan een zo laag mogelijke kostprijs.
De klassieke aanpak in de vliegtuigbouw was die van het worstcasescenario. Versnelde optredende metaalmoeheid, een uitzonderlijk groot aantal harde landingen en andere risicofactoren werden allemaal cumulatief meegenomen in het ontwerpproces. Dat kon bijvoorbeeld door bepaalde assen in een vliegtuigframe veel dikker te ontwerpen dan strikt noodzakelijk. Dat resulteerde vaak in een onnodig hoge productiekost, én het leidde tot nieuwe problemen.
Het overdimensioneren van één onderdeel kan op zijn beurt bijvoorbeeld overmatige slijtage veroorzaken op een andere plek. Alle opties op voorhand berekenen, bleek zelfs voor de knapste koppen met de beste computers onbegonnen werk. De oplossing? Een slim algoritme in combinatie met inzichten van ingenieurs én de nodige rekenkracht. Die input zorgde ervoor dat de toenmalige AI een optimaal voorstel kon doen over het benodigde materiaal voor specifieke vliegtuigcomponenten. Een hele verbetering tegenover de klassieke overdimensionering van vliegtuigcomponenten...
Toch kan je dit bezwaarlijk Deep Learning noemen. Het ontworpen algoritme kon niet zelfstandig bijleren en vertrouwde in de basis op de inzichten van menselijke ingenieurs. Kunstmatige intelligentie of AI was het dan weer wél, want het systeem simuleerde menselijk gedrag.
De grote AI-doorbraak
In de afgelopen jaren is AI verder geëvolueerd en steeds onafhankelijker geworden. De technologie evolueerde van klassieke AI en recommendation engines over beeldherkenning tot volwaardige Deep Learning. Inzichten worden niet langer door mensen ingevoerd, maar de AI ontdekt zélf wat de onderlinge verbanden tussen datapunten zijn. Het belang van voldoende en hoogwaardige trainingsdata groeide bijgevolg mee. Voor een recommendation engine gebaseerd op Deep Learning is er bijvoorbeeld een aanzienlijke hoeveelheid data nodig om te kunnen bepalen wat er precies relevant is voor een bepaalde groep gebruikers.
Met Deep Learning ontdekt de AI zélf de onderlinge verbanden tussen data
Welke systemen nu precies onder Deep Learning vallen, blijft voor interpretatie vatbaar. De grens tussen “klassieke” AI en Deep Learning is namelijk niet nauwkeurig afgelijnd. Op vlak van productontwikkeling betekende dat dat ontwikkelaars van AI-algoritmes veel afhankelijker zijn van trainingsdata en de kwaliteit ervan. Dat is ook nu nog erg belangrijk bij de toepassing van Deep Learning-algoritmes. Een heel verschil dus met de AI van Deep Blue of het algoritme voor vliegtuigontwerp.
De grote doorbraak kwam niet op één dag, maar gebeurde in vele kleine stapjes. De achterliggende concepten uit Deep Learning - denk maar aan neurale netwerken of feature learning - sijpelden langzaam vanuit de onderzoekswereld door naar praktische toepassingen. Die bewezen vervolgens op hun beurt de maturiteit en het potentieel van al die nieuwe research. Zo werden er vrij snel betere versies ontworpen van schaakcomputer Deep Blue, helemaal gebaseerd op Deep Learning. Ook werd beeldherkenning toegepast op een heleboel serieuze en minder serieuze manieren - denk maar aan het kunstproject ‘This person does not exist’, waarbij op basis van AI uiterst realistische portretfoto’s van onbestaande mensen worden gegenereerd.
Steeds vaker werden data als uitgangpunt genomen. De Deep Learning-technieken zochten vervolgens op een autonome wijze verbanden. Dat werd door de eerste innoverende bedrijven toegepast op geavanceerde beeldherkenning en tekstanalyse. Denk maar aan automatisch modereren van ongestructureerde tekst, het herkennen van personen in videobeelden of passende salesopvolging bepalen in grote hoeveelheden klantendata. Stuk voor stuk vooruitstrevende toepassingen die de klassieke combinatie van algoritmes, heuristiek en pure rekenkracht niet op één-twee-drie kan oplossen.
What’s next?
Deze Deep Learning-aanpak werkt goed, maar heeft ook enkele nadelen. Een goed Deep Learning-model is niet enkel vaak een black box - waardoor menselijke interpretatie van de gevonden verbanden vaak moeilijk is - maar vereist een aandachtige keuze van het achterliggende algoritme. Ook Deep Learning doet namelijk een beroep op algoritmes en correct getransformeerde data.
De nieuwste technieken, zoals Automated Machine Learning, zijn nog ambitieuzer en resulteren in een zichzelf configurerende AI. Die speurt niet enkel volledig autonoom de relevante verbanden op tussen trainingsdata, maar automatiseert ook alle daaropvolgende acties, zoals hypertuning (configuratie van het algoritme), datatransformatie en rapportage. Vanuit een techno-filosofisch standpunt betekent dat een grote stap naar de AI-singulariteit: een volledige zelfstandige AI.
Het Skynet-computernetwerk uit de Terminator-films is natuurlijk nog niet voor morgen Ook de huidige evolutie zal nog enkele jaren nodig hebben om volledig door te breken. Toch zijn de eerste stappen ontegensprekelijk gezet en worden de contouren van het pad stilaan duidelijk. Zonder enige twijfel opnieuw een grote stap voor de wetenschap en voor de verdere ontwikkeling van de mensheid.