Zo krijgt u zicht op de ethische risico's van algoritmen

Best practice
Zet kans op ongelukken en dilemma's op de toezichtagenda

Met het toenemende gebruik van algoritmen nemen ook de risico's toe die deze ‘geautomatiseerde voorspellers’ met zich meebrengen. Generaliseren leidt immers zomaar tot discrimineren en dat is ongewenst. Heeft u daar als toezichthouder of commissaris zicht op? Kent u de ethische keuzes die in de organisatie worden gemaakt bij het gebruik van algoritmen? KPMG-partners Muel Kaptein en Wim Touw bespreken de vier belangrijkste aandachtspunten en de rode vlaggen.

Door het gebruik van algoritmen kunnen organisaties efficiënter en effectiever opereren. Geen wonder dat de toepassing van algoritmen hand over hand toeneemt, nu deze technologie voor praktisch elke organisatie beschikbaar is. Verzekeraars stoppen bijvoorbeeld hun kennis over de kenmerken van frauduleuze schadeclaims in een algoritme en dat algoritme beslist vervolgens welke van de nieuw ingediende schadeclaims aan extra onderzoek worden onderworpen. Ook schoonmaakbedrijven gebruiken algoritmen: ondernemingen die grote publieke ruimtes schoonhouden extrapoleren data over bezoekersaantallen om te bepalen wanneer en hoe vaak hun werknemers een ronde moeten maken. Bij de (semi-)overheid zijn algoritmen eveneens niet meer weg te denken. Uit recent onderzoek blijkt dat 80 procent van de zelfstandige bestuursorganen(zbo’s) algoritmen toepast en gemeenten gebruiken algoritmen om hun beperkte controlecapaciteit zo effectief mogelijk in te zetten. Zo beslist een algoritme welke huizen (het eerst) gecontroleerd worden op verzakkingen in de fundering.

Roep om meer en beter toezicht

Algoritmen stuwen de vooruitgang dus. Maar jammer genoeg is er een keerzijde. Met het wijder verbreide gebruik van algoritmen verspreiden namelijk ook de risico’s zich. Waarmee de kans op ongelukken alleen maar toeneemt. Zoals bekend zijn die ‘ongelukken’ al voorgevallen. Begin dit jaar oordeelde de rechtbank bijvoorbeeld dat het Systeem Risico Indicatie (SyRI) - gebruikt om sociale zekerheidsfraude te voorspellen - in strijd is met het Europees Verdrag voor de Rechten van de Mens. Omdat het algoritme niet openbaar is, kunnen burgers niet controleren of het (onbedoeld) leidt tot discriminatie, aldus de rechter. Als het misgaat, klinkt - zowel bij (semi-)overheidsinstanties als ondernemingen - al snel de roep om toezicht, om meer en om beter toezicht vooral.

Risico's goed beheersen

Voelt u zich als commissaris of als toezichthouder aangesproken? Daar kan alle reden toe zijn. Want kennis van en inzicht in het gebruik van algoritmen staat veelal niet hoog op de agenda van toezichthoudende organen, zo is onze ervaring. Terwijl die organen wel een belangrijke verantwoordelijkheid hebben ten aanzien van dit risico. Door het implementeren van algoritmen in de bedrijfsvoering mogen organisaties dan grote kansen scheppen voor henzelf, als de risico's van deze uiterst complexe instrumenten niet goed worden beheerst, bijt de vooruitgang zichzelf in de staart. En dat is strijdig met de doelstellingen en de belangen van de organisatie waarop u toezicht houdt.

Hoe is invulling te geven aan deze verantwoordelijkheid? Hoe kunt u vanuit uw toezichthoudende taak zicht krijgen op de vraag of de organisatie ‘in control’ is met betrekking tot het gebruik van algoritmen? We zetten hier de vier aandachtspunten op een rij.

1. Algoritmen op agenda

Ten eerste, vanzelfsprekend: staat het onderwerp van de algoritmen wel op de agenda van het toezichtsorgaan? Is het bewustzijn aanwezig dat algoritmen zowel bij overheidsinstellingen als bij private ondernemingen niet meer weg te denken zijn? Zien commissarissen en toezichthouders dan ook de noodzaak zich te verdiepen in de achtergronden van dit fenomeen? Zijn zij op de hoogte van de dilemma's die dat met zich meebrengt?

2. Governance

Meer gericht op de praktische toepassing zal de toezichthouder vervolgens willen weten hoe bestuur en management denken over de vraag waar de verantwoordelijkheden liggen met betrekking tot dit thema. Bepaalt de individuele programmeur hoe ver hij of zij kan gaan? Is het een kwestie waar de gehele IT-afdeling bij betrokken moet worden? Of hoort dit wellicht thuis in het managementteam, in de bestuurskamer wellicht? Zo ja, tot op welk detailniveau gaat die verantwoordelijkheid, waar liggen wat dat betreft de scheidslijnen tussen alle betrokkenen?

3. Ethisch beleid

De daaropvolgende vraag is dan óf de organisatie een beleid heeft ontwikkeld voor de ethiek achter het gebruik van algoritmen en ten tweede wat de inhoud is van dat beleid. Wat staat er op papier, welke onderdelen zijn meer informeel geregeld, wat zijn de maatregelen die de verschillende risico's bij de uitvoering van dat beleid beheersen? Ook zult u willen weten wat de reikwijdte van het beleid is. Is het bijvoorbeeld relevant voor de werving en selectie van IT-medewerkers? In het bijzonder: wordt er bij het aannamebeleid aandacht geschonken aan ethiek?

4 Audit ethisch beleid

Tot slot zult u aanknopingspunten willen vinden om het succes van dit beleid te kunnen beoordelen. Wordt het geëvalueerd? Worden er audits op uitgevoerd, intern of extern? Dan vormen de gesignaleerde tekortkomingen plus de positieve punten een uitstekend uitgangspunt voor een gesprek met het bestuur over dit thema, waarbij u ook zult willen weten of en hoe er is of wordt bijgestuurd op grond van die bevindingen. Leert de organisatie in dit opzicht?

Rode vlaggen

Het hand over hand toenemende gebruik van algoritmen vergroot de ethische risico's rondom deze instrumenten, zo luidt de conclusie. Commissarissen en toezichthouders moeten zich bewust zijn van dit actuele, relevante en gevoelige thema en zich ervan vergewissen dat de organisatie op dit terrein een verantwoord beleid voert. Met het oog daarop deden wij hier een aantal aanbevelingen, maar vergeet daarbij niet dat uw eigen waarneming minstens zo belangrijk is. Wordt er blind vertrouwd op algoritmen? Stuiten uw vragen op onbegrip? Is er eigenlijk niemand in de organisatie die kan antwoorden, of komt alles neer op één persoon? Dit zijn signalen die u serieus moet nemen, rode vlaggen. Des te meer reden om als toezichthouder aan te dringen op openheid.

Muel Kaptein is sinds 1991 als organisatieadviseur en -auditor actief op het gebied van bedrijfsethiek, integriteit en compliance. Zo was hij in 1996 medeoprichter van KPMG Integrity en in 1999 van KPMG Sustainability. In zijn huidige functie als partner bij KPMG is hij samen met een multidisciplinair team van adviseurs en auditors werkzaam op het gebied van soft-controls, cultuur en integriteit. Sinds 1991 is hij eveneens werkzaam aan de RSM Erasmus University, waar hij doceert op het gebied van leiderschap, duurzaamheid en governance.

Klik hier voor contact met Muel Kaptein.

Wim Touw is ruim 25 jaar werkzaam in de controle en daaraan gerelateerde adviesopdrachten. Zijn werkterrein beslaat organisaties die werkzaam zijn in het spanningsveld markt en overheid. Binnen KPMG is hij de voorzitter van de Publieke Sector groep en Onderwijsgroep. Extern is hij onder meer actief als lid van de Taskforce Publieke Jaarverslaggeving, lid van de werkgroep RJ 650 en de werkgroep Onderwijs van de NBA. Tevens heeft hij ruime ervaring in toezichthoudende functies.

Klik hier voor contact met Wim Touw.  

Auteur(s)
Muel Kaptein en Wim Touw
partners KPMG
Dit artikel is gepubliceerd in
GU2020sep

Nationaal Register

Jan van Nassaustraat 93
2596 BR Den Haag
T 070-324 30 91
info@nationaalregister.nl

Volg ons op social media

Governance Update nieuwsbrief