Workshop VNG What if? Algorithms changed the world. 23 oktober 2019

Op woensdag 23 oktober nam ik deel aan de workshopmiddag van VNG realisatie omtrent algoritmen en design thinking. Graag deel ik via deze weg mijn ervaring. Ik ben natuurlijk ook benieuwd naar jullie ervaringen met AI, algoritmen en design thinking.

 

Inleiding (Maike Popma, VNG)

Maike Popma van VNG realisatie verwelkomde het gezelschap. De workshops zijn gerealiseerd vanuit de actiegroep Open Overheid.

 

Op dit moment zijn algoritmen een buzzword, vergelijkbaar met hoe Big Data en Blockchain dat recent waren. De connectie tussen deze ontwikkelingen spreekt haast vanzelf. Algoritmen hebben (net als Big Data en Blockchain) een sterke samenhang met AI (artificiële - of kunstmatige - intelligentie). Het gaat om de toepassing van deze concepten binnen technologische toepassingen die onder AI vallen. De prangende kwestie op dit moment is vooral de relatie tussen AI en ethiek. Ethische vraagstukken domineren het debat over de toepassing van algoritmen: wat mag wel en wat mag niet? En wie gaat daarover?

 

Wat is een algoritme eigenlijk? We stellen ons er al snel een concept bij voor dat onlosmakelijk met computers is verbonden, maar dat is niet noodzakelijkerwijs het geval. In essentie is een algoritme een reeks eindige instructies waarmee vanuit een begintoestand een doel wordt bereikt. Denk bijvoorbeeld heel simpel aan een recept voor het bakken van een taart. De begintoestand (een reeks ingrediënten) wordt door het volgen van de in het recept beschreven instructies omgezet in het doel (de taart). Op dezelfde manier worden instructies voor een computerprogramma geprogrammeerd; programmeertaal is feitelijk één groot algoritme.

 

AI verenigt eigenlijk verschillende elementen. Het gaat om het ontwikkelen van algoritmen, het verzamelen van data en het toepassen van beide elementen in technologieën die doorgaans besluitvorming ondersteunen, efficiënter maken, of zelfs vervangen. De sleutel is, uiteraard, data. Gegevens zijn de olie waarmee programma's door middel van algoritmen beslissingen maken; zonder die gegevens kan het algoritme niets doen. Daarmee wordt controle over die gegevens van toenemend belang, in een wereld waar AI een grotere rol speelt in besluitvorming.

 

Controle over data is een maatschappelijk belang, maar dat belang is niet homogeen. Mondiaal bestaat een grove driedeling tussen de V.S., China (en in min of meerde mate Azië) en de EU (en in min of meerdere mate Europa). Waar in China de overheid vrijwel onbeperkte toegang tot en controle op persoonsgegevens heeft, zijn dat in de V.S. tech-giganten als Amazon, Facebook en Google. In Europa hebben we een meer human-centric perspectief; zeker in de EU geldt het principe dat de burger eigenaar is van zijn persoonlijke data. Dat eigenaarschap is geborgd middels de AVG. Die scheiding is natuurlijk niet zó zwart-wit; denk bijvoorbeeld aan AliExpress, een bedrijf dat in grote delen van Azië actief is en sterk lijkt op Amazon in het gebruik van klantgegevens. In Europees perspectief is veel aandacht voor de accountability van AI en algoritmen, waar in Azië veel meer aandacht is op technologische vooruitgang ook als dat ten koste gaat van individuele vrijheden.

 

 

Deep learning en maatschappelijke vraagstukken (Arjan Wildlak, Kafkabrigade)

Vanuit de wat algemenere inleiding legde Arjan Wildlak de relatie tussen AI gedreven besluitvorming en de veranderende rechtspositie van burgers uit. Stichting Kafkabrigade is opgericht om overbodige en disfunctionele bureaucratie op te sporen en aan te pakken. Het gebeurt vaak dat mensen in situaties terecht komen waar ze door allerlei procedures en regels geen touw meer aan vast kunnen knopen. Stichting Kafkabrigade onderzoekt deze problemen en helpt overheidsorganisaties met het inrichten van hun organisatie rondom de publieke waarde die ze willen dienen.[1] Daarmee richt de Kafkabrigade zich ook op de invloed van AI en algoritmen op de democratie.

 

Wildlak legde uit dat besluitvorming in toenemende mate geschiedt zonder menselijke tussenkomst. Geautomatiseerde netwerkbesluitvorming vormt tegenwoordig zo'n vijftig procent van de overheidsbesluiten. Daar zijn goede redenen voor. Geïsoleerde besluitvorming is in veel gevallen niet meer toereikend. Het probleem met geautomatiseerde netwerkbesluitvorming is dat als het fout gaat, het heel lastig is de fout te herstellen. Van die fouten kunnen burgers ernstig gedupeerd raken. Computers zijn niet vergevingsgezind en besluiten worden absoluut. Zoals Joseph Campbell het al denkwaardig formuleerde: 'Computers are like Old Testament gods. Lots of rules and no mercy'.

 

Het probleem met automatische netwerkbesluiten is dat wanneer gegevens in één organisatie wijzigen, dat gevolgen heeft voor besluiten die vanuit andere organisaties in het netwerk worden genomen. Wanneer geen eigenaarschap is over de processen, heeft de burger feitelijk geen poot om op te staan om zijn recht te halen. Daarmee heeft de doorwerking van ketenbesluiten een ingrijpende, negatieve impact op de rechtspositie van de burger. De rechter kan in sommige gevallen ook niet achterhalen waarom een bepaalde beslissing is genomen.

 

Deze problematiek moet vanuit het proces zelf aangevlogen worden. Technologische vernieuwing nodigt ons uit tot anders nadenken over het logische gevolg van het al dan niet voldoen aan bepaalde voorwaarden. Een van de sleutels is hoe dan ook dat besluiten verantwoord moeten kunnen worden. Voorwaarde voor die verantwoording is eigenaarschap over de specifieke processen die leiden tot het besluit dat genomen wordt. Het archiveren van algoritmen (vraag blijf wel: hoe dan?) is een voorwaarde om de transparantie van automatische besluitvorming te borgen; algoritmen zijn de lingua franca van de bestuurlijke informatievoorziening.

 

 

Design Thinking voor verantwoordelijke AI (Peter-Paul Verbeek, Universiteit Twente)

Aansluitend op de roep om transparantie te vergroten nam Peter-Paul Verbeek ons mee in de workshop over het toepassen van design thinking. Centraal stond het ontwerpen van AI die verantwoordelijk kan worden gehouden voor de besluiten die door het programma worden genomen. Verbeek is universiteitshoogleraar Filosofie van Mens en Techniek aan de universiteit Twente en honorary professor aan Aalborg University. Zijn onderzoek richt zich op de dynamiek tussen mens, natuur en machine; ethiek is een belangrijke component in dat onderzoek.[2]

 

Ethiek moet aan technologie verbonden worden. Die verbinding moet zich niet enkel richten op de buitengrenzen van technologie (wat mag techniek wel en niet kunnen doen?). Juist maatschappelijke kernwaarden zouden centraal moeten staan in die verbinding. De vraag moet zijn welke kernwaarden meegenomen worden bij het ontwerp van technologische toepassingen. Om technologie toe te passen, moet de mens zich de technologie eerst eigen maken. De toepassing van technologie heeft vervolgens een impact op de omgeving, of wereld. Daarom moet een probleem altijd in de bredere context van relatie tussen mens, natuur en machine worden beschouwd.

Middels de cyclus van responsible design zijn we aan de slag gegaan met een concrete casus. Hoewel die niet helemaal uit de verf is gekomen, zijn we wel beter vertrouwd geraakt met de principes waarmee Verbeek ons kennis liet maken. Het gaat om een cirkel waarbinnen een probleem eerst helder gedefinieerd wordt (explain & explore), vervolgens verbeeld en geconcretiseerd raakt (imagine & ideate), waarna een reflectie op die concretisering plaatsheeft (reflect & reframe). Vanuit die reflectie wordt de cirkel opnieuw aangevangen zodat de ingebeelde technologische toepassing steeds verfijnder ontworpen wordt.

 

 

Evaluatie

De middag wekte enthousiasme op voor design thinking dat min of meer als een rode draad de middag bijeen bracht. Het gaat er om dat technologische toepassingen worden geïntegreerd in een breed maatschappelijk debat. Dat debat gaat over de kernwaarden van onze maatschappij: welk doel wordt nagestreefd, hoe gaat een specifieke techniek ons daarbij helpen en wat zijn de gevolgen van het toepassen van die techniek voor andere onderdelen van de maatschappij? Design thinking helpt ons het probleem breder én dieper aan te vliegen, als een soort T-vorm.

 

Een concept dat nog miste is techno neutraliteit. Mireille Hildebrandt relateert dit concept bijvoorbeeld aan legal protection by design. Hildebrandts argument is dat de toepassing van nieuwe technologieën per definitie een disruptieve impact hebben op de rechtstaat. Om een technologische toepassing technologisch neutraal te implementeren, zou moeten worden uitgezocht op welke wettelijke kaders deze technologie een impact heeft en wat dat betekent voor de rechtspositie van betrokkenen. Daarom moeten de wetten en rechten waarop zo'n technologie invloed uitoefent gereconceptualiseerd worden. Bij die reconceptualisatie moeten alle belanghebbenden betrokken worden.[3] Deze gedachte lijkt uitstekend aan te sluiten bij de door Peter-Paul Verbeek geleide workshop over design thinking. Ook in het verhaal van Wildlak past deze gedachtegang: technologie verandert immers de verhoudingen in de wereld.

[1] Tekst van de website van de Kafkabrigade a href="http://www.kafkabrigade.nl/">http://www.kafkabrigade.nl/>.

[2] Zie nader op a href="https://personen.utwente.nl/p.p.c.c.verbeek">https://personen.utwente.nl/p.p.c.c.verbeek>.

[3] M. Hildebrandt, 'The public(s) onlife: a call for legal protection by design', in: L. Floridi e.a. (eds.), The onlife manifesto: being human in a hyperconnected era (2015), 181-193, aldaar 189.

Weergaven: 193

Opmerking

Je moet lid zijn van BREED - over de grenzen van informatie om reacties te kunnen toevoegen!

Wordt lid van BREED - over de grenzen van informatie

Reactie van Yvonne Welings op 1 November 2019 op 13.29

Waardevolle blog Mathijs, dank !!!!

© 2024   Gemaakt door Marco Klerks.   Verzorgd door

Banners  |  Een probleem rapporteren?  |  Algemene voorwaarden