nieuws i-Samenleving

Proeftuinen nodig voor algoritmische besluitvorming

Om mogelijke negatieve aspecten van algoritmische publieke besluitvorming te voorkomen, zijn er proeftuinen nodig waarin geëxperimenteerd wordt met Artificial Intelligence (AI)-systemen. Daarvoor pleit onderzoeksorganisatie (TNO) in het paper Op zoek naar de mens in AI.

Het gebruik van AI binnen de publieke dienstverlening nam de afgelopen twee jaar sterk toe, aldus TNO. Het gebruik van AI om besluiten te nemen heeft bij overheidsorganisaties in enkele gevallen geleid tot discriminatie, ongelijkheid of uitsluiting. Om deze onbedoelde gevolgen te voorkomen richt bestaand en nieuw beleid zich op het opstellen van normenkaders voor de ontwikkeling van AI en het reguleren van AI-toepassingen. Deze normenkaders zijn echter gericht op AI-ontwikkelaars en niet op degenen die de technologie toepassen. Mede daardoor is er een gebrek aan transparantie en uitlegbaarheid bij de toepassing van AI. Burgers weten het vaak niet als de overheid op een bepaald vlak AI-systemen inzet.

De TNO ontwikkelde op basis van bestaande normenkaders een aanpak om AI-systemen uit te testen. Bij deze aanpak, de Dynamische impact assessment methodiek voor verantwoordelijke algoritmische besluitvorming, is het cruciaal dat de verschillende partijen, zoals ontwikkelaars, beleidsmakers, overheidsfunctionarissen en burgers betrokken worden om alle belangen mee te wegen. In samenwerking met die partijen wordt volgens die methodiek eerst verkend of AI überhaupt een oplossing kan bieden in een systeem, waarna in een afgeschermde omgeving voor experimenten de toepassing kan worden beproefd. Hierdoor worden onbedoelde nadelige gevolgen in een vroeg stadium geïdentificeerd en kan het AI-systeem aangepast worden.

Delen

Reageer

*

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *