Toezicht houden op de uitdagingen van kunstmatige intelligentie

Digitalisering
Ook modellen maken fouten

Moet elke raad van commissarissen een lid met kennis van kunstmatige intelligentie in zijn of haar portefeuille hebben? Die vraag kwam aan bod tijdens het meest recente commissarissendebat van Deloitte. Catelijne Muller en Evert Haasdijk deelden hun visie op de kansen en uitdagingen van kunstmatige intelligentie in de bijeenkomst.

Edison zei ooit: ‘Whatever the mind of man creates, should be controlled by man’s character.’ Ofte wel: ‘Wat de geest van de mens creëert, moet worden beheerst door het karakter van de mens.’ Maar hoe kan dit worden bereikt als die creatie het resultaat is van complexe zelflerende algoritmen? Tijdens het meest recente commissarissendebat van Deloitte deelden Catelijne Muller en Evert Haasdijk hun visie op de kansen en uitdagingen van kunstmatige intelligentie. Een van de stellingen tijdens de discussie: Elke raad van commissarissen moet een lid met kennis van kunstmatige intelligentie in zijn of haar portefeuille hebben.

Iemand moet kansen en bedreigingen kennen

Ja, luidt het antwoord van een deel van het publiek op deze stelling. De samenleving verandert immers sneller dan ooit en de ontwikkelingen op het gebied van kunstmatige intelligentie beïnvloeden het dagelijks leven meer en meer. Als je daar als commissaris geen weet van hebt, moet je je afvragen wat je in de boardroom doet. Iemand moet weten wat de kansen en de bedreigingen van kunstmatige intelligentie voor het bedrijf zijn. Er moet in de bestuurskamer sprake zijn van een bredere visie, maar íemand moet een diepgaand begrip hebben van hoe de systemen werken.

Weet wat je niet weet

Nee, concluderen bijna evenveel deelnemers aan het debat: een raad van commissarissen mag niet slechts naar één lid kijken als het gaat om kunstmatige intelligentie. Dat is gevaarlijk. De gehele raad moet voldoende over het onderwerp weten. De essentie van een raad van commissarissen is immers het nemen van collectieve beslissingen. Volgens Evert Haasdijk, Senior Manager en AI Expert bij Deloitte, kun je kennis op het gebied van kunstmatige intelligentie gemakkelijk inkopen als commissaris. Je hoeft de ins en outs van de nieuwste technieken niet persoonlijk te kennen. Je moet alleen weten wat je niet weet.

Data zijn geen feiten

Zowel Haasdijk als Catelijne Muller - lid van de High Level Expert Group on AI van de Europese Commissie en president van ALLAI Nederland – benadrukt het belang van de uitlegbaarheid van kunstmatige-intelligentiemodellen. Muller geeft een voorbeeld van een slecht functionerend algoritme: een Amerikaans 17-jarig meisje werd gearresteerd voor het stelen van een fiets als eerste overtreding en kreeg desondanks het label van recidivist met een hoog risico, terwijl een man met een lang strafblad die werd betrapt op winkeldiefstal het label ‘laag risico’ kreeg. De man was wit, het meisje was zwart. Het gebruikte kunstmatige-intelligentiesysteem voor het data-labelen van gevangenen bleek toch niet zo intelligent te zijn en de data die het systeem gebruikte om te leren bleken evenmin goed. Muller: ‘Data zijn niet synoniem aan “feiten”. Dataverzamelingen kunnen rommelig zijn, vooroordelen bevatten en onvolledig zijn. Dus nee, ik ben niet bang dat kunstmatige intelligentie te slim wordt en de wereld overneemt. Ik ben eerder bang dat kunstmatige intelligentie te dom is en de wereld al heeft overgenomen.’

Mens aan de knoppen

Muller: ‘Deze systemen beïnvloeden ons leven zo diepgaand dat ze maar beter heel goed kunnen zijn. Immers, naast het beoordelen van gevangenen, beslissen kunstmatige-intelligentiesystemen ook over hypotheken, ziektekostenverzekeringen, waar kinderen naar school gaan, et cetera. Daarom hanteren we normen. We moeten ervoor zorgen dat de systemen veilig zijn, zonder vooroordelen, dat ze compleet zijn en dat ze niet kunnen worden gehackt.’ Plus: er moeten meer mensen aan tafel zitten, aldus Muller. Als je een algoritme ontwerpt om iemand naar de gevangenis te sturen, dan wil je misschien met een rechter of een officier van justitie praten. Werkgevers en werknemers moeten met elkaar aan tafel zitten om te praten over de implementatie van kunstmatige intelligentie op de werkvloer, zodat het de mensen kan versterken in hun werk. De gehele samenleving zou moeten deelnemen aan de discussie rond kunstmatige intelligentie. Muller pleit voor een human-in-command-strategie voor kunstmatige intelligentie in technische zin, maar ook bij de beslissing of, wanneer en hoe we kunstmatige intelligentie toepassen in ons leven, onze huizen, onze scholen, onze werkplekken, onze rechtszalen en onze ziekenhuizen.

Uitlegbaar en transparant

We moeten de individuele beslissingen van modellen kunnen begrijpen, aldus Haasdijk. Computer says no is geen geldige verklaring. Want modellen kunnen dan wel nauwkeuriger zijn dan mensen, ze zullen nog steeds fouten maken. We kunnen systemen maken die snel beslissingen kunnen nemen, maar die systemen hebben geen idee van de context waarin ze worden gebruikt. Een goed voorbeeld van waar dit toe zou kunnen leiden is het verhaal van Rich Caruana, senior researcher bij Microsoft, over een model dat de sterfkans voorspelt van patiënten met longontsteking, met behulp van een neuraal netwerk. Het model was heel nauwkeurig, maar hij adviseerde artsen toch om het niet te gebruiken. Omdat een ander model tot de conclusie kwam dat mensen met astma minder kans hadden om dood te gaan als ze een longontsteking opliepen. Het model kwam tot die vreemde conclusie omdat patiënten met astma die longontsteking krijgen meestal onmiddellijk naar de afdeling intensive care worden gestuurd, waardoor hun kans op overlijden wordt verkleind.

Gezond verstand gebruiken

We hebben dus menselijke intelligentie nodig, in dit geval artsen, om hun gezonde verstand te gebr uiken. En daarom moeten we ook vooringenomenheid opsporen, om te achterhalen wanneer en waarom de beslissingen van een model verkeerd zijn en om individuele beslissingen te kunnen uitleggen. Dat kunnen we doen door de modellen te inspecteren, door statistische analyse en door transparante benaderingen. Haasdijk: ‘We hebben transparantie nodig, omdat we menselijk inzicht nodig hebben in de implicaties van kunstmatige-intelligentiemodellen en zelflerende machines. We hebben methodologie nodig die deze vereisten omvat.’

Commissarissen moeten dus eveneens hun gezond verstand gebruiken bij het houden van toezicht op de toepassing van kunstmatige intelligentie door de organisaties.

Klik hier voor meer interessante informatie voor commissarissen.

Auteur(s)
Deloitte
Dit artikel is gepubliceerd in
GU2019mrt

Nationaal Register

Jan van Nassaustraat 93
2596 BR Den Haag
T 070-324 30 91
info@nationaalregister.nl

Governance Update nieuwsbrief

Volg ons