Artificiële intelligentie blijft een hot topic. Het potentieel van deze technologie, voor alle industrieën en beroepen, wordt steeds duidelijker. Zoals bij de adoptie van elke nieuwe technologie, rijzen er vragen over de betrouwbaarheid van deze systemen. Wij spraken met Wouter Denayer, Technical Lead bij IBM Belgium, en stelden hem vragen over de visie van IBM op artificiële intelligentie.


Wouter Denayer is Technology lead voor IBM België en Luxemburg. Hij ondersteunt de partners van IBM bij het implementeren van nieuwe technologieën. 

Artificiële intelligentie biedt ongelooflijk veel voordelen, maar stelt ons ook voor een aantal uitdagingen. Enkele van de hot topics zijn "Trustworthy AI", "Explainable AI" en "Fairness". Wat wordt hiermee bedoeld?

Wouter: "Daarvoor moeten we kijken naar het verschil tussen AI en klassieke programma's. Een klassiek programma komt tot stand door een groep experten die nadenken over een bepaald probleem en regels definiëren aan het programma om dit op te lossen. Bij een AI-systeem daarentegen worden er geen of weinig regels vastgelegd. Het systeem schrijft zelf een programma, gebruikmakend van voorbeelden die eraan gegeven worden. Daarmee gaat het systeem tussen bepaalde parameters zeer complexe correlaties maken, vaak zo complex dat wij er als mens moeilijk aan uit kunnen. We zitten dus met een artificiële intelligentie die beslissingen aanbeveelt of neemt, op basis van informatie die mensen moeilijk kunnen bevatten.

De vragen rond "trustworthiness", "explainability" en "fairness" duiken op door het feit dat we weinig inzicht hebben in de algoritmes achter de AI. "Trustworthiness" is het vertrouwen dat wij aan het systeem schenken. Om vertrouwen te kunnen geven aan een systeem, moeten we het begrijpen, én moet het kunnen verantwoorden waarom keuzes gemaakt worden. Dat is dan de "explainability" van het AI-systeem, een tweede essentiële component om vertrouwen te creëren. "Fairness" is de afweging of de gemaakte keuzes door het AI-programma wel correct zijn en niet discriminerend." 

Intelligente systemen kunnen toch foute beslissingen nemen, zeer paradoxaal. Hoe komt dit? Wat zijn de gevaren hiervan?

Wouter: "Een AI-systeem valt vandaag eigenlijk niet "intelligent" te noemen. Het kijkt naar beslissingen uit het verleden en neemt een reeks nieuwe beslissingen aan de hand daarvan. Daarom is het uiterst belangrijk dat de ingevoerde data geen fouten bevat, dat die niet biased is.

Het gevaar van een bias is dat, indien we helemaal vertrouwen op een bepaald systeem, er foute beslissingen worden genomen, zonder dat we ons daarvan in eerste instantie bewust zijn. Dat kan gaan van een foutief profiel bij een aanwerving tot een predictive maintenance die verkeerde onderhoudsintervallen aangeeft.

Hoe belangrijk zijn transparante AI-systemen? Kan je een voorbeeld geven?

Wouter: "Een typisch voorbeeld is het systeem dat de Amerikaanse justitie een aantal jaren geleden gebruikte om te bepalen wat de kans op recidive voor een crimineel is. Door biased data in het systeem was de berekende kans dat een zwarte crimineel zou hervallen veel hoger dan in werkelijkheid. Dit is een zeer sprekend voorbeeld, maar dergelijke problemen kunnen zich manifesteren bij elke foute dataset. Het is daarom enorm belangrijk om systemen te blijven evalueren en verbeteren.

"De aanvaarding van AI in de bedrijfswereld is afhankelijk van de transparantie van de systemen. Een recente studie toonde aan dat AI de topprioriteit is voor managers, maar dat 70% terughoudend is wegens het gebrek aan vertrouwen. Voor veel mensen blijft AI een soort "black box". Je steekt iets in het systeem, maar weet niet wat eruit zal komen. Indien er iets fout loopt in het proces, zal het management vragen: "Waarom is dit gebeurd?". Dan is het nodig om duidelijk te kunnen verklaren hoe het systeem tot deze uitkomst is gekomen. Bij IBM hebben wij onze principes over vertrouwen en transparantie reeds in kaart gebracht en gepubliceerd. Deze zijn vrij raad te plegen voor iedereen die wil weten hoe wij hiermee omspringen. 

Wat doet IBM precies om AI-systemen te verbeteren?

Wouter: "Enerzijds hechten we veel belang aan het correcte gebruik van data. We ontwikkelden een aantal tools die helpen om bias op te sporen. Iets wat tijdens het hele ontwikkelingsproces en de volledige levensduur van het systeem gedaan moet worden. De eerste stap is het verwijderen van de bias uit de data, maar er moet ook constant gecontroleerd worden of de systeemoutput niet biased is.

Anderzijds werken we met onze AI-developers om te vermijden dat zij hun eigen bias in het systeem invoeren. Daarom hebben we voor hen een Everyday AI Ethics Guide ontwikkeld, die helpt bij het beantwoorden van ethische vragen.

In het kader van "thrustworty AI" ontwikkelden we ook een systeem, AI OpenScale, dat het beslissingsmodel achter het algoritme kan toelichten. Het geeft weer welke input en parameters van belang zijn geweest om tot een bepaalde keuze te komen, alsook een indicatie over de zekerheid van deze keuze. Door dit alles duidelijk en visueel weer te geven, willen we de barrières voor het gebruik van deze systemen verlagen, zodat ook mensen met een minder technische achtergrond hiermee kunnen werken." 

Welke rol moet de overheid spelen in dit verhaal?

Wouter: "We zien de overheid voornamelijk als een facilitator van AI, door het beschikbaar stellen van data, zowel in België als in Europa, en door het ontwikkelen van een ethisch kader. Hoe meer "goede en correcte" data beschikbaar is, hoe nuttiger AI zal worden voor de maatschappij en industrie. We zien dat het in de goede richting gaat, maar in dit geval is méér absoluut beter. We begrijpen ook dat de publieke opinie zich pertinente vragen stelt over de ontwikkeling. Daarom is het naar onze mening noodzakelijk om ethische richtlijnen te ontwikkelen – eerder dan de huidige complexe regelgeving – om bedrijven te helpen bij de correcte ontwikkeling van AI.

Binnen IBM zijn we ook fan van een "AI Fact Sheet", een document met informatie over het AI-algoritme, welke data gebruikt wordt om het te trainen en wie gecontacteerd kan worden in geval van problemen. Dat document zou eigenlijk dienen als een soort identificatie van het AI-systeem. Misschien kan de overheid ook hier een rol spelen?" 

Wat moeten bedrijven doen die willen weten of AI een meerwaarde kan bieden voor hun bedrijfsproces?

Wouter: "AI is bijzonder inzetbaar in alle sectoren en we hebben reeds tal van praktische projecten lopen. Tegelijk is het belangrijk om te beseffen dat we in de eerste fase van AI zitten, en dat de weg naar "general AI", zoals in sciencefiction films, nog veraf is.

Om de huidige mogelijkheden maximaal te benutten, kunnen we AI best als een geïntegreerd proces beschouwen. De hele ketting - vanaf de data, het trainen van het model en het testen – moet betrouwbaar zijn. We moeten aspecten zoals trust, bias en explainability vanaf het begin goed integreren. Met welke data werd het model precies gebouwd? Wat is de accuraatheid van dat model? Moeten we het herwerken met nieuwe data? Met een goed governance model, ondersteund door tooling, kunnen we het overzicht behouden, zeker wanneer er meer en meer modellen worden uitgerold.

Zoals altijd is het belangrijk om de juiste business case te vinden. Vooral in cases waarin AI een samenwerking tussen mens en machine kan opzetten, bevatten zeer veel mogelijkheden. We zien AI voornamelijk als een adviseur van de mens, waarbij de mens op elk moment de controle en verantwoordelijkheid behoudt. Het is dus belangrijk om te denken aan systemen die mensen kunnen ondersteunen, eerder dan alleenstaande systemen die alles zelf oplossen." 

We kennen Watson, maar hebben jullie nog andere lopende AI-gerelateerde projecten?

Wouter: "Watson heeft inderdaad al veel naam gemaakt. Een ander interessant project is de Project Debater. Het is een AI die discussies kan aangaan met de mens over moeilijke thema's. In de huidige tijd, waarin vaak eenzijdige visies worden gepromoot, is het debat erg belangrijk. Met Project Debater willen we een AI-systeem trainen dat kan luisteren naar de argumenten van een persoon, een begrip kan opbouwen van de problematiek en vervolgens zélf een ander standpunt kan verdedigen, in een zelfgeschreven uiteenzetting.

Dit artikel past in het 'AI for Industry programma' van Agoria. Hebt u vragen of interesse om deel te nemen aan een van onderstaande focusgroepen, kan u contact opnemen met ferdinand.casier@agoria.be.

Focusgroepen AI for Industry:

  • AI Ethics, Regulation & Standardization (start 22/1/2019)
  • AI & skills (27/2/2019)
  • AI Awareness & Business hub (start to be announced)