Algoritmen en accountants

22 oktober 2019

Interim Professional, Mohamed Khelfi, heeft het onderstaande artikel 'Algoritmen en Accountants' geschreven, wat eerder ook is gepubliceerd op cmweb.nl.

Recent verscheen een initiatiefnota van VVD-kamerlid Jan Middendorp waarin wordt gesuggereerd dat accountants een rol zouden kunnen vervullen in het beoogd systeem van toezicht op algoritmen. In de nota wordt toegelicht dat ‘mensen niet moeten worden overgelaten aan de digitale jungle aan de sturing van algoritmen’. Het zou een overheidstaak zijn om burgers te beschermen tegen grote technologiebedrijven die met algoritmen steeds meer onze levens sturen. Accountants zouden hierin een rol zou kunnen spelen door middel van -zoals ook gebruikelijk is bij jaarverslagen- het afgeven van in-control verklaringen. In hoeverre is dit een realistisch voorstel?

 

Algoritmen

Tegenwoordig is er geen ontkomen aan, algoritmen zijn overal.  Van algoritmen die toegepast worden door Facebook, Twitter, Google, maar bijvoorbeeld ook door publieke organisaties zoals de Belastingdienst, provincies, gemeenten en ga zo maar door. Maar wat zijn algoritmen nu eigenlijk?                 Op Wikipedia wordt het begrip algoritme gedefinieerd als ‘een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt’. Simpel gezegd zijn algoritmen vooraf gedefinieerde en ingegeven instructies die autonoom of (in combinatie) met menselijke betrokkenheid geautomatiseerde beslissingen nemen. Deze geautomatiseerde beslissingen hebben impact op (het handelen van) mensen. Je kan een algoritme goed vergelijken met een keukenrecept.        Het recept beschrijft welke handelingen verricht moeten worden om een goed gerecht te bereiden. Om brood te bakken heb je ingrediënten nodig (input), die je vervolgens volgens de receptuur bewerkt (algoritmen) om uiteindelijk vers brood te verkrijgen (output). De impact op mensen is dat mensen er eerder voor zullen kiezen om vers brood te consumeren in plaats van de onbewerkte ingrediënten. De bewerkingen hebben ook als resultaat dat de ingrediënten beter verteerbaar zijn.

Onze huidige samenleving is in zoverre gedigitaliseerd dat algoritmen een belangrijke rol spelen in de samenleving. Webshops en krantensites gebruiken ze om je aanbevelingen te doen uit hun online aanbod. Ziekenhuizen gebruiken algoritmen voor planning, TomTom gebruikt algoritmen om kaarten beter te maken en KLM voor onderhoud aan vliegtuigen. Algoritmen beslissen of mensen een hypotheek krijgen, of ze op sollicitatiegesprek mogen en welke behandeling een arts voorschrijft.

Kortom, algoritmen nemen beslissingen over kleine en grote zaken in ons leven. En alhoewel de grote meerderheid van algoritmen innovatief is en onze samenleving makkelijker maakt, kan het ook voorkomen dat algoritmen (onbedoeld) discrimineren, te kieskeurig zijn, onze privacy aantasten of selectief nieuws aanbieden. Een goed voorbeeld hiervan is het algoritme van de Belastingdienst dat fraude moest opsporen.  In de nasleep van de Bulgarenfraude, zocht de Belastingdienst middels een algoritme op of burgers die toeslagen kregen ook een tweede nationaliteit hebben. Als gevolg daarvan zijn in 2014 de toeslagen voor de kinderopvang van ruim 300 ouders onterecht stopgezet. Achteraf kwalificeren velen dit voorval als etnisch profileren. Zo kunnen onjuist toegepaste algoritmen die ingezet zijn met de beste bedoelingen toch nog tot ongewenste resultaten leiden.

Degelijke ongewenste effecten kunnen zich ook voordoen in geval van zelflerende algoritmen. Algoritmen kunnen met vaststaande beslisregels werken. Ze kunnen ook zelflerend zijn waardoor na verloop van tijd de beslisregels autonoom kunnen veranderen. Door gegevens te verzamelen en te analyseren, leert een algoritme. In dergelijke gevallen is er sprake van het gebruik van kunstmatige intelligentie. Een voorbeeld van een zelflerende ‘discriminerende’ algoritme is het algoritme dat Amazon in een tijd geleden gebruikte. Amazon gebruikte een algoritme dat op basis van historische sollicitatiegegevens nieuwe sollicitanten selecteerde. Op enig moment kwam het bedrijf er echter achter dat het algoritme zichzelf had geleerd mannelijke sollicitanten te verkiezen boven vrouwelijke, omdat bij het bedrijf overwegend mannen werkten. Amazon heeft nog geprobeerd de algoritme ‘niet-discriminerend’ te krijgen, maar heeft na vergeefse pogingen afstand van de algoritme gedaan.

 

De initiatiefnota

Om dergelijke (neven)effecten tegen te gaan is het heel begrijpelijk dat gepleit wordt om zowel op nationaal als op internationaal niveau wet- en regelgeving en toezicht te implementeren die erop toe zien dat algoritmen en kunstmatige intelligentie op een correcte manier worden toegepast. Dit is tot vandaag de dag echter nog volop onderwerp van discussie. Ook binnen Europees verband wordt pas sinds dit voorjaar gesproken over de invoering van internationale regelgeving voor toezicht hierop.

In de initiatiefnota wordt voorgesteld het toezicht op algoritmen in te regelen door elementen van het risicobeheer in de financiële sector en het bestaande jaarverslagensysteem te combineren.

Het voorstel is drieledig. Ten eerste moeten instellingen die algoritmen gebruiken zelf rapporteren over de algoritmen die zij gebruiken. Ten tweede moeten externe toezichthoudende partijen (met accountants als illustratief voorbeeld) met de algoritme gebruikende instellingen meekijken.

Tot slot moeten accountants in het kader van jaarrekeningcontroles ook de gebruikte algoritmen controleren en hierover een oordeel afgeven, al dan niet in vorm van in control-verklaringen.

Op deze manier wordt beoogd dat de samenleving meer inzicht en grip verkrijgt over het gebruik van algoritmen, waarbij tegelijkertijd ook richting wordt gegeven aan de inspanningen van algoritme gebruikende instellingen om eerlijke en betrouwbare algoritmen op een juiste manier toe te passen.

 

De rol van de accountant

De vraag is echter of het wel zo wenselijk is dat accountants als toezichthouder en controleur naar voren wordt geschoven. Is het voorstel wel uitvoerbaar, of zou het niet beter zijn dat de accountant zich bij zijn leest houdt, namelijk het – onder meer – verschaffen van zekerheid omtrent de verwerking van economisch relevante gebeurtenissen in financiële verslagen? Binnen de beroepsgroep zijn de meningen hierover verdeeld.  Wel is iedereen duidelijk dat in een steeds meer ‘algoritmiserende’ samenleving perk en paal gesteld moet worden aan de hieruit voortvloeiende risico’s. Uit een enquête die KPMG onder 1100 Nederlanders heeft gehouden, is gebleken dat 93% van de ondervraagden vóór toezicht op algoritmen en kunstmatige intelligentie is. De meeste van de ondervraagden vinden dat dit ook een taak is voor de overheid en onafhankelijke deskundigen[1].

Vanuit de accountancy is verschillend gereageerd op het voorstel van kamerlid Jan Middendorp.                 Enerzijds signaleert een deel van de beroepsgroep commerciële kansen in haar dienstverlening aan controleklanten. Anderzijds bestaat tegelijkertijd ook scepsis over de vraag of de accountant wel voldoende toegerust is op deze taakuitbreiding. Dit brengt de nodige uitdagingen met zich mee.

 

Voorstanders

Voorstanders van het voorstel beargumenteren dat het toetsen van algoritmen voor accountants geen onontgonnen gebied is. Dit doet de accountant immers al jaren. In het kader van financiële verslaggeving worden (uitkomsten van) algoritmen ook nu al door accountants gecontroleerd. Wat het geval is, is dat de accountant bijvoorbeeld in staat moet zijn zekerheid te verschaffen over inschattingen die de gecontroleerde organisatie heeft gemaakt op basis van algoritmen. Dat betekent dat wanneer de organisatie gebruikmaakt van algoritmen om bijvoorbeeld een voorziening in te schatten, de controlerend accountant hierop een controle moet uitvoeren. In het geval de kennis van de accountant tekortschiet maakt de accountant gebruik van een IT-specialist die wel deskundig is. 

De accountant zou om algoritmen te beoordelen bestaande technieken als data-analyse kunnen inzetten. Een voorbeeld hiervan is de audit die EQI voor de KNAB-bank heeft uitgevoerd op hun adviesapp voor verzekeringen. KNAB wilde graag een statement kunnen afgeven dat het algoritme onafhankelijk is van de bankbelangen. KNAB wilde richting hun klanten communiceren dat het advies dat verstrekt wordt door de app niet gebaseerd is op premies die de bank ontvangt als iemand een verzekering afsluit. EQI heeft door middel van simulatie van data (van hypothetische klanten) de module nagelopen en in een rapport uitspraken gedaan over de onafhankelijkheid van het algoritme.

Wel erkennen voorstanders ook dat de toetsing van algoritmen steeds uitdagender wordt, doordat algoritmen zich steeds dieper in de samenleving wortelen en steeds complexer worden. Daarentegen wordt door de voorstanders ook aangedragen dat wij vandaag de dag niet meer in een tijd leven dat de certificerend accountant al het werk kan doen waarvoor hij als verantwoordelijke aftekent. De accountantscontrole van complexe producten of diensten wordt doorgaans uitgevoerd door auditteams waarin diverse specialisten zich verenigen, allen onder leiding van de certificerend accountant. Denk bijvoorbeeld aan financiële producten die de inzet van een actuaris vergen. Deze specialisten worden in de meeste gevallen gevonden in de eigen organisatie of ook wel daarbuiten.

 

Tegenstanders

Tegenstanders van het voorstel hebben hier duidelijk een andere visie op. Zo vindt Marcel Pheijffer, hoogleraar aan de Nyenrode Business Universiteit en de Universiteit Leiden, de voorstellen van kamerlid Middendorp onvoldoende doordacht en is hij van mening dat deze bij uitvoering daarvan ineffectief blijken en hooguit schijnzekerheid bieden. Als belangrijkste argument draagt hij aan dat accountants onvoldoende uitgerust zijn om mee te kijken met instellingen die algoritmen gebruiken.

Bovendien, zo beweert hij, zijn de instellingen vaak zelf niet in staat om te rapporteren over de algoritmen die zij gebruiken. Laat staan dat accountants dan in staat zouden zijn om deze rapportages te verifiëren. Accountants hebben zelf gewoonweg te weinig kennis over ingewikkelde algoritmen. Dit is ook niet zo vreemd. De opleiding accountancy is er namelijk (nog) niet op gericht op accountants in spé te bekwamen in het toezicht houden op- en controleren van algoritmen en kunstmatige intelligentie. In het huidige curriculum komen onderwerpen op het gebied van data science niet of nauwelijks aan de orde. Hierbij is ook goed om te realiseren dat ook op het moment dat de accountant gebruik maakt van de inzet van (externe) deskundigen, er duidelijke grenzen zijn aan de mate waarin deze kennis van de accountant tekort mag schieten. Immers, om specialisten goed aan te kunnen sturen moet de accountant wel enigszins weten waarover hij sturing geeft.

Dit onderschrijft ook Pieter de Kok van accountantskantoor Coney. ‘Algoritmen en kunstmatige intelligentie zijn complexe materie. Slechts een handvol accountants begrijpt bijvoorbeeld wat 'supervised' algoritmen zijn en ontwikkelingen als machine learning zijn’. Dit zijn ontwikkelingen die ver weg van de accountancy staan. Critici vinden het dan ook een verstandige zaak dat de accountant bij de leest blijft door zich uitsluitend te richten op adequate controle van financiële verslaglegging.

Accountants als toezichthouder complexe algoritmen laten controleren zou alleen maar schijnzekerheid bieden zijn wat zomaar weer een nieuwe verwachtingskloof kan opleveren.

Afgezien van deze scepsis omtrent de deskundigheid van accountants betwijfelen criticasters ook of de voorstellen uit de initiatiefnota überhaupt uitvoerbaar zijn. In de initiatiefnota wordt namelijk terecht gesproken over het bestaan van miljoenen algoritmen die in miljoenen plekken in onze samenleving worden gebruikt. Bedenk ook dat dit een trend is die nog niet zo heel lang gaande is en nog volop in ontwikkeling is. Anno 2019 is al bijna geen organisatie meer denkbaar die zonder automatisering en algoritmen werkt. De vraag is niet of-, maar wanneer toepassing van kunstmatige intelligentie de standaard wordt. Bedenk ook dat algoritmen geen landsgrenzen kennen en steeds complexer worden, waardoor het kaart brengen algoritmen alleen al een uitdaging op zich wordt.

In de initiatiefnota wordt voorgesteld om niet alle algoritmen te controleren, maar op basis van een risicoprofiel inzicht te verwerven in wat algoritmen precies doen. Dat wil zeggen, dat voorgesteld wordt om te inventariseren welke algoritmen de samenleving kansen bieden en welke juist de samenleving kunnen schaden. Tegenstanders van het voorstel, waaronder hoogleraar Pheijffer, wijzen erop dat een dergelijke inventarisatie juist een overheidstaak is. Door het toezicht zodanig in te regelen dat gesteund wordt op zelfrapportages van de organisaties die algoritmen gebruiken en de monitoring en controle daarvan af te wentelen op derde partijen zou juist sprake zijn van zwaktebod. Een zwaktebod dat maar eens aantoont hoe groot de kloof tussen de overheid en het bedrijfsleven is. Het laat een overheid zien die achter de feiten en ontwikkelingen aan loopt en die op deze manier hoopt de kloof enigszins te dichten. Idealiter zou het de overheid zijn die op basis van een eigen inventarisatie de belangrijkste risico’s die aan algoritmen kleven zou moeten kunnen benoemen en het te voeren beleid daarop afstemt. De initiatiefnota toont aan dat de overheid nog niet zover is.

Dat de overheid er zich ook wel van bewust is dat het op het gebied van algoritmen en kunstmatige intelligentie nog achter de feiten en ontwikkelingen aan loopt blijkt ook wel uit het onlangs gepresenteerde actieplan voor AI. Staatssecretaris Keijzer van het Economische Zaken en Klimaat presenteerde onlangs het Strategisch Actieplan voor Artificiële Intelligentie waaruit blijkt dat het kabinet de investeringen in kunstmatige intelligentie in de komende zeven jaar wil verdubbelen naar maar liefst twee miljard euro. Het doel van dit nationaal actieplan is om de ontwikkelingen in kunstmatige intelligentie te stimuleren, maar tegelijkertijd ook om de aandacht te vestigen op de gevaren van kunstmatige intelligentie. In het actieplan wordt, net als in de initiatiefnota, benadrukt dat kunstmatige intelligentie onze wereld ingrijpend zal veranderen en hoe belangrijk het is om hierin te investeren. Om dit te bereiken is de zogeheten AI-coalitie opgezet, met daarin ongeveer 65 bedrijven, maatschappelijke organisaties en onderzoeksinstellingen. Naast het ministerie van Economische Zaken en Klimaat zijn bedrijven zoals Philips, Ahold, IBM en onderzoeksinstituut TNO deelnemers van deze coalitie. Ook wil Nederland internationaal samenwerken op het gebied van AI.

Naast het ontwikkelen van kennis over kunstmatige intelligentie wil het kabinet ook investeren in onderzoek naar verantwoord gebruik van kunstmatige intelligentie en transparantie en uitlegbaarheid van algoritmen. Tevens wil kabinet flink investeren in het onderzoeken of toezichthouders voldoende toegerust zijn om toezicht op algoritmes te kunnen houden en of- en welke blinde vlekken er zijn in het toezichtlandschap. Uit dit plan kan men opmaken dat inzichten hierin nog ontbreken. Een frappant detail is dat in het 64 pagina’s tellende rapport wel veelvuldig over toezichthouders wordt gesproken, maar dat met geen woord over accountants wordt gerept.

Het is ook maar zozeer de vraag of accountants hierop zitten te wachten. Op dit moment is er nog maar weinig ervaring op het gebied van accountancy en algoritmen. Algoritmen wordt door velen als complexe materie ervaren, en je dan ook terecht zou kunnen afvragen of accountants – in een tijdperk waarbij algemeen bekend is dat jonge accountants toch al een hoge werkdruk ervaren- dit er zomaar even bij kunnen doen.  Denk ter vergelijking aan een andere recente uitbreiding van het takenpakket van de accountant. Op basis van de Wet Normering Topinkomens moeten accountants ook de beloningen in de (semi)publieke sector controleren. Dit wordt door de complexiteit van de regelgeving als een complexe taak ervaren, die de audits buitgewoon lastig maakt en daardoor ook nog eens veel te duur voor opdrachtgevers. Accountantskantoren zijn de controle van topinkomens in de publieke sector daarom steeds vaker liever kwijt dan rijk zijn. Steeds meer kantoren hebben om, onder andere, die reden in de afgelopen jaren afscheid genomen van de publieke sector. In veel van deze gevallen wogen de baten gewoonweg niet meer tegen de kosten op. En dan hebben wij het in dit geval nog over een “overzichtelijk” onderwerp als beloningen dat door accountants al als lastig wordt ervaren, wat te denken over het toezichthouden op- en het controleren van algoritmen?

Zoals het er nu op lijkt -gezien de hoge werkdruk die in de branche ervaren wordt- is er maar weinig ruimte in het huidige takenpakket van de accountant voor nog verder toenemende controledruk.

Ook binnen het bedrijfsleven gaan kritische geluiden op. Vooral binnen het MKB vraagt men zich af of de regeldruk wel zo proportioneel is.  Rapportage, toezicht en controle kost immers tijd en geld. Middendorp lijkt hier in de initiatiefnota enigszins rekening mee te houden. Hij stelt voor om kleine ondernemingen te ontzien en geen onnodige administratieve lasten te creëren. In de nota wordt gesproken van ‘toezicht dat innovatie de ruimte geeft en MKB-proof’ is. Hierbij wordt wel geheel voorbijgegaan aan het feit dat misbruik van algoritmen ook heel goed in het MKB plaats kan vinden.

 

Slot

Alle voor- en tegenargumenten daar gelaten, duidelijk is in ieder geval dat toepassing van algoritmen en kunstmatige intelligentie langzaamaan in onze samenleving is ingeworteld en dat deze trend zich in de komende jaren alleen maar verder zal ontwikkelen. Onmiskenbaar is ook dat toepassing van algoritmen niet alleen kansen biedt, maar ook negatieve effecten met zich mee kan brengen die onverenigbaar zijn met onze waarden en normen. De maak van (aanvullende) wet- en regelgeving hieromtrent en een systeem van toezicht en controle hierop is dan ook logisch gevolg van de risico’s die zich kunnen voordoen.  Het is echter maar zeer de vraag of accountants in dit samenspel de rollen van toezichthouder en controleur van algoritmen op zich willen, dan wel kunnen, nemen.

De bedoelingen zijn in ieder geval wel goede aard. Het in de politiek inmiddels ook wel doordrongen dat het aannemen van een afwachtende houding en niets doen geen optie is. De ontwikkelingen, risico’s en de mogelijkheden voor het verkrijgen van grip op de risico’s moeten verkend worden. 

Voor de accountant lijkt op de korte termijn voorlopig nog geen van deze rollen te zijn weggelegd.

De echte uitdaging voor beleidsmakers ligt naar mijn idee ook niet zozeer in het bedenken van een toezichtstructuur en het aanwijzen van toezichthouders, maar eerder in het verkrijgen van adequaat inzicht de mogelijke risico’s en het ontwikkelen van passende en toereikende wet- en regelgeving.

Voor nu ontbreekt het op dit gebied aan maatschappelijk algemeen geaccepteerde principes voor eerlijke en betrouwbare algoritmen. Om te komen tot algemeen geaccepteerde principes zal ook nagedacht moeten worden over ethische kwesties. Om de algoritme van Amazon maar weer als voorbeeld te nemen; het is verboden om te selecteren op geslacht, leeftijd en etniciteit, maar hoe aanvaardbaar is het om te selecteren op basis van een gat in iemands cv? Dit zijn lastige discussies.

Lastige discussies die niet alleen door de beleidsmakers maar ook door -en in samenspraak met- de organisaties die algoritmes en kunstmatige intelligentie toepassen gevoerd moeten worden. De eerste stappen lijken hiertoe te zijn gezet, zowel op nationaal niveau als in internationaal verband.

Alleen met een referentiekader, bestaande uit algemeen geaccepteerde principes, kan vervolgens nagedacht worden over het monitoren en evalueren van algoritmen. Alleen dan kunnen ook toetsingsnomen om algoritmen consistent te evalueren uitgedacht worden. Toetsingsnormen die specifiek toegespitst zijn op het referentiekader en die ook betrouwbaar, neutraal en begrijpelijk zijn. Zonder een referentiekader staan we nog mijlenver af van evaluatie en controle van algoritmen.  

Bronnen

Boer, M. de, Goudsmit, J. (2019); Laat accountants ook algoritmes controleren, NRC, editie 3 juni 2019

Boer, M. de, Goudsmit, J. (2019); Maak controle op algoritmen uitvoerbaar, Accountant, 3 juni 2019

Brouwens, J., (2019), Algoritmes mogen voor accountants geen geheimen hebben, Accountant, 13 juni 2019

Koenis, C., (2019), Kabinet verdubbelt investeringen in kunstmatige intelligentie, RTL Z, 8 oktober 2019

Middendorp, J. (2019), Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen, Parlementaire monitor, KST352122, 35212, nr. 2

Middendorp, J. (2019), Op naar een nieuwe balans tussen overheid, markt en algoritmen, Volkskrant, editie 26 mei 2019

Ministerie van Economische Zaken en Klimaat (2019), Strategisch Actieplan voor Artificiële Intelligentie, Rijksoverheid, 8 oktober 2019

Pheijffer, M., (2019), Algoritmen: enige orde in het vertoog en de discussie, Accountant, 17 juni 2019

Pheijffer, M., (2019), Voorstel voor toezicht op algoritmen zal ineffectief blijken, Accountant, 3 juni 2019

Wietelaar, N., (2019), Waar raakt nieuwe technologie de audit?, Accountant, Q3 2019, pag. 22-26

Wijnen, J. F. van, (2019), VVD pleit voor toezicht op algoritmes van bedrijven en overheden, Financieel Dagblad, editie 29 mei 2019

 

[1] Onderzoek “Vertrouwen van de Nederlandse burger in algoritmes” (2019).

Delen