UvA-onderzoeker Błażej Kuźniacki dringt aan op meer transparantie rond AI
13 februari 2023
'AI kan niet genegeerd worden. Het is van groot belang als het gaat om belastingen. Mensen zijn niet in staat om een enorme hoeveelheid gegevens zo snel en nauwkeurig te doorlopen als algoritmes. En aangezien belastingdiensten toegang hebben tot big data, zou het zonde zijn om geen gebruik te maken van AI. Met deze grote hoeveelheid gegevens kun je algoritmen trainen en verbeteren. Het gaat erom AI op een juiste manier te gebruiken en om de rechten van de belastingbetaler niet te schaden.'
'We moeten begrijpen waarom AI bepaalde beslissingen neemt. Je kunt niet zeggen: "Ik leg u belasting op omdat AI dat voorstelde". Uiteindelijk moet er een mens zijn met de bevoegdheid om een beslissing te nemen. We hebben bij de toeslagenaffaire gezien dat het fout gaat als het proces te geautomatiseerd en geheimzinnig is. AI zou in staat zijn geweest informatie te gebruiken die wettelijk gezien niet relevant is bij besluitvorming, zoals geslacht, religie, etniciteit en adres. Dat kan leiden tot discriminerende behandeling. Belastingdiensten moeten hun beslissingen kunnen uitleggen, anders kunnen ze die ook niet verantwoorden. Vertrouwen kan niet volledig of grotendeels overgedragen worden van mensen naar machines (bijvoorbeeld algoritmen).'
We moeten voorkomen dat we passief zijn tot er weer een ramp gebeurt
'Het probleem is dat veel beslissingen en strategieën nog steeds verborgen zijn, inclusief het gebruik van AI. Er worden steeds meer eisen gesteld aan belastingplichtigen om transparant te zijn. Belastingdiensten lijken daarentegen de andere kant op te gaan door het toenemende gebruik van niet-uitlegbare AI-systemen. Dat is beangstigend. AI zelf is zo complex geworden dat het voor mensen moeilijk is om de beslissingen van machine learning (ML) algoritmen volledig te begrijpen en te verklaren. Daarbij komt nog tax secrecy die transparantie verhindert, net als in soms ook het handelsgeheim dat doet.'
'Dat was een deel ervan. De Nederlandse wetgeving staat al niet toe dat de geautomatiseerde besluitvorming van AI gecontroleerd wordt. Er was ook te weinig ruimte voor interactie met mensen. De procedures waren te geautomatiseerd en te geheimzinnig. Een van de grote fouten in deze zaak was dat zelfs nadat duidelijk was dat er iets mis was gegaan, de autoriteiten niet meteen probeerden te helpen. Maar dit schandaal betekent niet dat Nederland een van de slechtste is. Het zou wel eens het tegenovergestelde kunnen zijn. Het kan veel erger zijn in andere landen. Het feit dat dit schandaal een paar jaar geleden aan het licht kwam, betekent dat de samenleving door verschillende lagen kon gaan die transparantie verhinderden. Men kwam er toch achter dat er iets mis was. Slachtoffers stapten uiteindelijk naar de rechter en verdedigden hun recht op respect voor het privéleven.'
'We hebben meer transparantie vooraf nodig. Tax secrecy kan door het parlement worden verminderd. Dat is een kwestie van de regels veranderen. Maar inzicht in de systemen van AI zal moeilijker zijn. Er is geen wet die je verplicht om alleen uitlegbare AI te gebruiken. Bovendien zijn er wetten die je beletten AI uit te leggen vanwege tax secrecy. We zouden minimale wettelijke eisen moeten stellen aan het gebruik van AI. Dat zal bedrijven en overheden dwingen om na te denken over de uitlegbaarheid van AI-systemen die ze ontwikkelen, inzetten en gebruiken, omdat ze anders problemen krijgen met de naleving van de wetgeving. Hoe hoger de risico's, hoe hoger de uitlegbaarheidseisen moeten zijn. We moeten voorkomen dat we passief blijven totdat er weer een ramp gebeurt.'