Artificial intelligence vraagt om specifiek toezicht

Pleidooi voor specifieke AI-audit
Interview

Kunstmatige intelligentie, artificial intelligence (AI) is meer dan een hype. Het heeft een verregaande invloed op organisaties en het leven van mensen, zowel op technisch als ethisch vlak. Het onderwerp hoort dus hoog op de agenda van commissarissen te staan. Evert Haasdijk is AI-specialist en senior manager Financial Advisory bij Deloitte: ‘Geloof niet zo maar elk AI-model.’

Deloitte houdt zich nadrukkelijk bezig met AI. Zowel binnen als buiten de organisatie. Geeft u eens wat voorbeelden van intern gebruik van AI.

‘We gebruiken AI in veel projecten, op allerle manieren. Vaak gebruiken we daarvoor beschikbare software, maar soms moeten we zelf een oplossing ontwikkelen. We hebben hier bijvoorbeeld Documiner. We hebben enorm veel PDF’s van leasecontracten met enorm veel data. Ga je dat overtikken, is dat vaak foutgevoelig. Documiner kan bijna foutloos gegevens uit de contracten halen en verwerken. React is een andere tool. Dat is een systeem dat ongebruikelijke betalingen opspoort. Voorbeeld: bij een Engelse bank wordt 150 miljoen aan advocaatkosten betaald. React check dat betalingssysteem. Dan komen daar bijvoorbeeld hele dure businessclass vluchten uit of bizarre uurtarieven, zonder dat je dat van te voren zelf hoeft te bedenken. Dat hoeft niet frauduleus te zijn. Voor hetzelfde geval is het een tikfout, maar zo kun je wel de zaken met behulp van AI controleren die aandacht vergen. Bij de UWV-affaires met Polen en Bulgaren had zo’n systeem goed kunnen werken, hoewel je dan ook op moet passen dat je niet alle Polen en Bulgaren over één kam gaat scheren.’

Uit databaseonderzoek blijkt dat de meeste schade wordt veroorzaakt door bestuurders van rode auto’s. Met datamining kun je dus op kleur van auto’s premies differentiëren. Net zoals je met DNA-profielen ‘pricing’ van zorgverzekeringen kunt bepalen. Datap-gedreven “machine learning” AI.

‘Er zitten een aantal gevaren aan die voorbeelden. Punt één: AI is geen heilige graal. Geen Haarlemmerolie voor alles. De relevante vraag is: heb ik wel een goede dataset gebruikt? Zitten er bij die rode auto’s niet een paar Ferrari’s die de schadelast enorm hebben opgeschroefd. Heel veel modellen kloppen gewoon niet. Het is natuurlijk onzin dat mensen in rode auto’s slechtere bestuurders zijn. Als commissaris moet je heel goed doorvragen of datasets wel kloppen wanneer beslissingen genomen worden. Of neem het voorbeeld van ING en klantacceptatie. Is daar –even los van de vraag of dit echte AI is, wel een goede dataset gebruikt om klanten in beeld te krijgen, of is daar te veel op techniek vertrouwd en onvoldoende doorgevraagd, ook door toezichthouders, of daar wel de juiste data is verwerkt. Stel dat je als bank AI gebruikt, moet je je ervan vergewissen dat de data ook genoeg voorbeelden bevat van partijen die je helemaal niet als klant wilt. In het geval van de zorgpolis is er natuurlijk ook een ethisch aspect. Geef me een druppeltje bloed, en AI bepaalt wel wat je premie wordt. Gelukkig mag je in Nederland geen profielen koppelen aan premiehoogte, maar AI heeft zeker ook een belangrijke ethische component. Bekend is het voorbeeld van de zelfsturende auto. Moet die bij een noodsituatie kiezen voor het scheppen van een jong kind of uitwijken en inrijden op een grote groep oudere mensen?’

Hoort AI op de agenda van commissarissen? En als u zelf commissaris zou zijn, welke vragen zou u dan stellen?

‘AI biedt geweldige kansen voor bedrijven en vanuit die optiek alleen al hoort het op de commissarissen agenda. Het is potentiële business. Ook kun je als commissaris AI aanzwengelen om processen die veel volume vragen, beter te organiseren met techniek. Waar ik vooral als commissaris op in zou zetten, is het formeren van een specifieke AI-audit. Niet alles is AI. Soms is het ook gewoon IT. Je moet als toezicht (en bedrijf) een aantal kritische bedrijfsprocessen benoemen die voor AI relevant zijn. Op die processen zou je een specifieke AI-audit moeten doen. Wat zijn de opbrengsten, wat zijn de risico’s, hebben we alles in kaart? Kunnen we door AI genomen beslissingen uitleggen? Ook zaken als ethiek zouden onderdeel van zo’n specifieke audit moeten zijn. En vraag vooral door of de goede data wordt gebruikt in modellen om tot een afgewogen beslissing te komen. Je hoeft daarbij als commissaris echt niet alles van neurale netwerken te weten. Je kunt een AI-specialist in je audit systeem invlechten. Het gaat meer om het je bewust zijn als toezichthouder wat voor een mogelijkheden AI biedt en wat de gevaren zijn. En vooral: hoe en waar gaan we AI inzetten?’

Nog een mooi voorbeeld van hoe commissarissen AI kunnen gebruiken?

‘Voor opvolging in organisaties is het een mooie tool. Stel dat je op termijn een nieuwe CEO zoekt en intern wilt kijken. Hoe breng je dan de juiste mensen in kaart? Je kunt dan ongetwijfeld een model maken dat altijd blanke mannen van 45 oplevert. Je kunt ook een model maken waar je data in stopt die je relevant vindt, en daar mensen aan koppelen. Zo kun je heel goed high potentials uit een organisatie halen waar je misschien vooraf nog nooit aan had gedacht. Maar let op: er zitten ook risico’s aan. Als je tien goede namen hebt, maar daar zit geen enkele –pakweg- allochtone naam of geen enkele vrouw tussen, kloppen je modellen dan wel? Om het goed te doen, heb je veel inzicht nodig in de organisatie en goede data, meer nog dan AI inzetten op zich.’

Hoe hard gaat het met AI?

‘Toen ik het studeerde, was het maken van een routeplanner voor NS-reizigers tussen Groningen en Rotterdam al ingewikkeld. Over tien jaar hebben we het vermoedelijk niet meer over AI, omdat het ingebed is in al onze systemen. We noemen het AI tot we weten hoe iets moet, dan is het gewoon geworden. Maar de ontwikkelingen gaan snel, en daarom moeten toezichthouders zich er ook serieus mee bezig gaan houden.’

Pas schreven we in deze nieuwsbrief over een robot aan tafel als lid van de RVC of RvB. Omdat die geen emotionele beslissingen neemt. Biedt AI die mogelijkheid? 

‘Dank denk ik vooral aan het hebben van een heel goed dashboard met kwalitatief hoogwaardige informatie. Dat als je een onderwerp hebt, je door op twee knoppen te drukken alle relevante informatie hebt die nodig is voor een besluit. Goede reporting. AI kan veel toevoegen aan goede besluitvorming. AI kan nu nog niet zelfstandig goede overwegingen maken.’

In januari 2019 is er een commissarissendebat van Deloitte: Around the boardroom. U bent daar keynote-spreker. Wat zal uw betoog daar zijn?

‘Ik zal vooral focussen op het belang van goede modellen. Hoe komt een model tot stand en kan ik erop vertrouwen? Kan ik op basis van modellen beslissingen valideren. Je moet modellen niet zo maar klakkeloos accepteren.’ Je hebt immers ook bestuurders van rode auto’s die geen schade rijden.

Kijk hier voor contact met Evert Haasdijk.

Auteur(s)
Ronald Buitenhuis
Dit artikel is gepubliceerd in
GU2018okt

Verder in deze Governance Update

Nieuw Rotterdam

Governance Radar

O, Commissarissen! Let op u rechtmatige saeck!

ING-zaak: Komt het nog tot een dramatisch steekspel voor de rechter?

IORP II: uitdagingen voor de inrichting van het governancesysteem

Wat is de toegevoegde waarde van IORP II?

Artificial intelligence vraagt om specifiek toezicht

Pleidooi voor specifieke AI-audit

Openheid als toverwoord

Scherp toezicht vraagt vertrouwen; maar dat is een delicate dynamiek

Geen garanties, wel goede start

Risicoanalyse integriteit bij te benoemen toezichthouders

Tax controversy: wat te doen?

Hoe "controversy-proof" bent u als commissaris?

'Toezicht houden is verrijkend'

De portefeuille van...

Dynamiek in de boardroom: waar op te letten?

'Het gaat vaak om dezelfde obstakels'

Nationaal Register

Jan van Nassaustraat 93
2596 BR Den Haag
T 070-324 30 91
info@nationaalregister.nl

Klik hier voor ons Privacybeleid

Governance Update nieuwsbrief

Volg ons