Hoe krijgen we algoritmen zo eerlijk mogelijk?

Hoe krijgen we algoritmen die gebruikt worden door de overheid zo eerlijk mogelijk en hoe kan goede archivering daaraan bijdragen? Tobias van der Knaap, masterstudent Archival & Information Studies aan de Universiteit van Amsterdam, deed er onderzoek naar bij het CBS. Zijn onderzoek valt binnen het CBS-project ‘Eerlijke algoritmen’ dat in 2018 werd gestart. ‘Als technologie de menselijke beslissing overneemt, is verantwoording extra belangrijk.


Verantwoording en transparantie

De ontwikkelingen op het gebied van kunstmatige intelligentie gaan hard. Steeds vaker zetten gemeenten en andere overheden algoritmen in om beslissingen te nemen, bijvoorbeeld bij het opsporen van bijstandsfraude of om de kans op schooluitval te bepalen. ‘Aan die ontwikkelingen zijn ook risico’s verbonden’, zegt Tobias van der Knaap, inmiddels afgestudeerd. Van der Knaap heeft bij het CBS onderzocht op welke manier verbeteringen op het gebied van archivering en informatiebeheer kunnen bijdragen aan de borging van transparantie, uitlegbaarheid, verantwoording en eerlijkheid bij het gebruik van algoritmen, specifiek bij gemeenten. ‘Verantwoording en transparantie zijn belangrijke begrippen in de archiefwereld’, zegt Van der Knaap. ‘Eerlijkheid en uitlegbaarheid staan centraal in het project ‘Eerlijke algoritmen’ van het CBS’.

Maatschappelijk perspectief

Van der Knaap dook de literatuur in: ‘Ik kijk niet naar de technische details van algoritmen, maar kies het perspectief van de maatschappij. Welke gevolgen heeft het voor mensen als gemeenten algoritmen inzetten? Welke risico’s kleven daaraan? Wat vinden mensen belangrijk om te weten en te borgen?’
Ook het wettelijk kader werd bestudeerd: de Archiefwet, de AVG en de aankomende Wet Open Overheid, de opvolger van de Wet Openbaarheid Bestuur. Van der Knaap: ‘Bovendien heb ik gekeken naar het Europese beleid. De Europese Unie is op zoek naar een manier om op een goede manier om te gaan met de mogelijkheden van kunstmatige intelligentie. De Nederlandse aanpak zou daarop aan moeten sluiten.’

Transparantie

Een belangrijk deel van het onderzoek bestond uit interviews met bijvoorbeeld medewerkers van de afdelingen Onderzoek en statistiek van gemeenten of stadsarchieven. ‘Met behulp van de interviews heb ik in kaart gebracht hoe binnen gemeenten op dit moment wordt omgegaan met informatie en archivering. Heeft het prioriteit? Hoe is het proces geregeld? Maar ook: worden algoritmen gebruikt bij de besluitvorming? Hoe wordt daarbij nagedacht over transparantie, uitlegbaarheid, eerlijkheid en verantwoording? Tegen welke praktische obstakels loopt men aan?’

Verder lezen bij de bron.

Weergaven: 191

Opmerking

Je moet lid zijn van BREED - over de grenzen van informatie om reacties te kunnen toevoegen!

Wordt lid van BREED - over de grenzen van informatie

Reactie van Yvonne Welings op 8 December 2020 op 11.06

Frank, de scriptie is te vinden bij deze link: https://scripties.uba.uva.nl/search?id=c3040418

Reactie van Yvonne Welings op 4 December 2020 op 9.06

Dank voor je reactie, ik ben zelf benieuwd naar de scriptie. Een tijdje geleden ben ik door Tobias van der Knaap benaderd.

Reactie van Frank van Geffen op 3 December 2020 op 18.53

Mijn eerste opmerking lijkt verwijderd te zijn...ik verwees naar een toevoeging aan de discussie over "transparency by design". De ogenschijnlijke white box (transparante werking) van het kraamzorg proces. 

Belangrijk daarbij is de noodzakelijk rust en vertrouwen die nodig is in de eerste week na de bevalling. Dit eist een mate van transparantie van het proces/algoritme voor zowel medewerker als het gezin.

Dus wat maakt dat je wilt dat algoritmes eerlijker/transparanter zijn. Dat is dus sterk afhankelijk van de context, maar lijkt terug te voeren op een gevoel van onbehagen en of zelfs onrecht.

Reactie van Frank van Geffen op 3 December 2020 op 18.47

En aanvullend, wanneer zijn ze eerlijk? Kan dat eigenlijk wel? Meer belangrijk is dan wanneer zijn de duidelijk genoeg om ze te vertrouwen. Dat laatste kun je soms ook afleiden aan de consistentie van het resultaat wat algoritmes produceren. Vaak is het zo, dat als deze resultaten niet consistent lijken of zijn, er een onbehagen gevoeld wordt en men om meer vertrouwen (transparantie) gaat vragen. Wat ik ook terecht lijk terug te lezen in het artikel, is de roep om beter vooraf hierover na te denken...dus een soort van "transparantie by design". Maar let op, transparant hoeft niet te betekenen dat het altijd eerlijk is...en dan komt dus het ethische aspect erbij.

© 2024   Gemaakt door Marco Klerks.   Verzorgd door

Banners  |  Een probleem rapporteren?  |  Algemene voorwaarden