Systemen worden slimmer dan mensen en robots zullen de mensheid domineren

11 juni 2018

Doemscenario’s vormen veelal de boventoon in de verhalen over kunstmatige intelligentie terwijl we juist in gesprek moeten over hoe we de kansen benutten die kunstmatige intelligentie biedt.

Gaat kunstmatige intelligentie (artificial intelligence), belangrijke publieke waarden onder druk zetten zoals; gelijke behandeling, privacy, autonomie, menselijke waardigheid, rechtvaardigheid, machtsverhouding en controle over technologie? Zelfrijdende auto’s, robotrechters en zorgrobots doen inmiddels hun intrede en de ontwikkelingen in virtuele assistenten zoals Siri, Google Now en Cortana gaan in hoog tempo door. Kunstmatige intelligentie kan hiernaast ingezet worden voor het schrijven van nieuwsberichten, het herkennen van objecten, navigatie, analyseren van (wet)teksten, optimaliseren van processen en het voorspellen van grondstofprijzen en vraag naar producten.

“Wanneer heeft u voor het laatst een online chat gevoerd op een webwinkel? Was dit mens of machine? Chatbots kunnen worden ingezet als 24/7 klantenservice, educatieve doeleinden of vermaak.”

Het Platform voor de Informatie Samenleving (ECP) biedt met hun whitepaper relevante gespreksstof en een oplossingsrichting voor een evenwichtige inbedding van kunstmatige intelligentie in de samenleving. In deze whitepaper, gepresenteerd tijdens de NOREA-voorjaarssymposium over kunstmatige intelligentie en robotisering voor IT-auditors, meldt het ECP te werken aan een ‘AI Impact Assessment’. Dit als hulpmiddel voor de ontwikkeling van verantwoorde kunstmatige intelligentie toepassingen, rekening houdend met belangrijke ethische en juridische waarden, alsmede het vroegtijdig onderkennen van organisatorische impact van kunstmatige intelligentie.

Sterke vs. zwakke kunstmatige intelligentie

Van superintelligente robots en computersystemen die zich als mens gedragen en als mens kunnen denken (sterke kunstmatige intelligentie) is voorlopig nog geen sprake.

De eerder genoemde voorbeelden van (zwakke) kunstmatige intelligentie, zijn systemen die kunnen redeneren en systemen die kunnen leren. Beide maken gebruik van algoritmen en historische data, waarbij systemen leren van hun fouten (machine-learning).

Desondanks zijn er al systemen die zelfbewust zijn en zelf strategieën bedenken om doelen na te streven. Hoe deze systemen dat doen is veelal niet transparant, niet uitlegbaar en soms zelfs niet bekend. Daarom wordt het stellen van randvoorwaarden in het ontwerpproces belangrijk. De discussie moet gaan over het wel of niet inbouwen van menselijke controle (ethiek). Maken we beslisregels openbaar en toegankelijk zodat ethische waarden worden gewaarborgd? Stellen we eisen aan organisaties die kunstmatige intelligentie toepassen, dat zij weten hoe hun systemen tot beslissingen komen?

Het samenspel van burgers, bedrijven, politiek en overheid verandert op het moment dat kunstmatige intelligentie een rol gaat spelen in het ontwikkelen van wetgeving. Zijn ambtenaren in de toekomst nog wel experts van hun eigen regels en in staat ethische waarden en afwegingen mee te nemen in het besluitvormingsproces? Binnen organisaties wordt nu nog maar nauwelijks gesproken over de impact van kunstmatige intelligentie en het borgen van ethische normen en waarden.

Delen