Nieuwe handreiking moet discriminerende algoritmes corrigeren

Nieuwe handreiking moet discriminerende algoritmes corrigeren

Nederlandse handreiking geeft regels en randvoorwaarden aan overheidsorganisaties en bedrijven

In opdracht van het Nederlandse ministerie van binnenlandse zaken heeft een team van onderzoekers van Tilburg University, Eindhoven University of Technology, Vrije Universiteit Brussel en het College voor de Rechten van de Mens een handreiking samengesteld met daarin stap voor stap uitgelegd hoe organisaties die kunstmatige intelligentie willen inzetten kunnen voorkomen dat hun algoritmes discrimineren. Het onderzoeksteam heeft gekeken naar technische, juridische en organisatorische voorwaarden die daarbij in acht moeten worden genomen. De handreiking geldt voor zowel de publieke als de private sector en zal zowel in het Nederlands als in het Engels verschijnen.

  

Algoritmen worden steeds vaker ingezet om risico-gestuurd te werken en geautomatiseerde besluiten te nemen. Dat dit fout kan gaan, bleek maar al te goed uit de Nederlandse kindertoeslagaffaire, waarbij minderheden onder meer door algoritmen stelselmatig werden gediscrimineerd door de Belastingdienst. De Handreiking geeft regels en randvoorwaarden aan overheidsorganisaties en bedrijven die algoritmen en kunstmatige intelligentie willen inzetten.  

  

De handreiking onderscheidt zes stappen voor het ontwikkelen en toepassen van algoritmen: 

1. Het vaststellen van de probleemdefinitie;   

2. Het verzamelen van data;   

2. De dataselectie;  

4. Het vaststellen van een beleid voor automatische besluitvorming;   

5. Het implementeren van het beleid; en   

6. Het toetsen van het beleid.   

  

Per stap worden juridische regels uit onder meer de Algemene Verordening Gegevensbescherming, de Wet Gelijke Behandeling en het Europees Verdrag voor de Rechten van de Mens, best practices uit de praktijk en voorbeelden uit de literatuur gegeven waarmee partijen rekening moeten houden.   

  

Partijen betrekken  

De handreiking vereist onder meer dat organisaties belanghebbenden en relevante groepen in de samenleving al vanaf het begin betrekken bij de ontwikkeling van het algoritme en dat externe, onafhankelijke experts gedurende het hele proces kritisch meekijken. Ook moeten personen ten aanzien waarvan automatische besluiten worden genomen daarvan op de hoogte worden gesteld en daar bezwaar tegen kunnen aantekenen, moet het systeem worden stopgezet bij geconstateerde fouten en gebreken en moet het hele proces permanent worden gemonitord.    

  

Mensenrechten   

De Handreiking vloeit voort uit de toezegging van de Nederlandse regering dat mensenrechten als uitgangspunt zullen dienen bij de inzet van kunstmatige intelligentie en sluit aan bij de recentelijk aangenomen motie van Klaver en Ploumen over de nieuwe bestuurscultuur, waarin de Nederlandse Tweede Kamer onder meer uitsprak dat ‘er zo snel mogelijk een einde gemaakt moet worden aan racisme, in elk geval door te stoppen met het gebruik van discriminerende algoritmes’.  

 

De handreiking is hier te vinden: https://www.tweedekamer.nl/downloads/document?id=a8537622-fb86-4bd0-b3df-01b914261fdf&title=Non-discriminatie%20by%20design.pdf  

 

 

10 lessen voor algoritmes 

  1. Betrek belanghebbenden: Belanghebbenden en groepen die te maken krijgen met automatische besluitvorming moeten worden betrokken bij de ontwikkeling van het algoritme, niet aan het eind van het proces, maar vanaf het allereerste moment. Vervolgens dienen er regelmatig evaluatiemomenten met betrokkenen te zijn tijdens het ontwikkelproces.
      
  2. Think twice: Uitvoeringsinstanties en bedrijven kiezen nu vaak standaard voor automatische besluitvorming en risico-gestuurd werken, tenzij er wezenlijk bezwaren zijn. Omdat algoritmes per definitie beslissingen nemen op basis van groepskenmerken en geen rekening houden met de specifieke omstandigheden van individuele gevallen is het discriminatiegevaar intrinsiek aan de keuze voor kunstmatige intelligentie. Daarom moet er altijd eerst worden nagegaan of de doelstellingen niet zonder algoritme kunnen worden behaald.   

     
  3. Heb oog voor de context: Door middel van algoritmen wordt een proces model-gestuurd; dat is efficiënt en kan consistentie in de hand werken. De regels die het algoritme leert, volgen echter uit de data-realiteit en raken geregeld losgezongen van de echte wereld en de menselijke maat. Daarom moet er bij besluitvormingsprocessen een persoon die controleert: wat het algoritme nu doet, snijdt dat eigenlijk wel hout? Het team dat aan een AI-project werkt dient dan ook zo divers mogelijk te zijn, waarbij zowel moet worden gelet op professionele als persoonlijke achtergronden, zoals de etniciteit, geslacht, geaardheid, culturele en religieuze achtergrond en leeftijd van de teamleden. 

     
  4. Check bias in de data: Algoritmen werken met data, maar de data die organisaties in het bezit hebben zijn vaak onvolledig en geven een vertekend beeld. Een algoritme dat leert van de huidige wereld zal leren dat mannen vaker worden uitgenodigd voor een sollicitatiegesprek voor een leidinggevende functie dan vrouwen; een algoritme dat wordt getraind op de database van de politie, die een overrepresentatie heeft van gegevens uit wijken met veel bewoners met een migratieachtergrond, zal concluderen dat criminaliteit zich met name in die wijken afspeelt. Daarom moet er altijd worden gecheckt of de data evenwichtig, volledig en up to date zijn. 

     
  5. Stel heldere doelstelling vast: Voordat het algoritme wordt ontwikkeld moeten succescriteria worden vastgesteld. Wat is de toegestane foutmarge en hoe verschilt die van bestaande processen? Welke voordelen zou het kunstmatige intelligentie-systeem moeten hebben om de investering waard te zijn? Een jaar nadat het systeem in de praktijk is gebracht moet worden geëvalueerd of deze bechmarks zijn behaald; zo niet, dan moet het systeem in principe worden stopgezet.  

     
  6. Monitor permanent: Algoritmen zijn vaak zelflerend. Dat betekent dat zij zichzelf aanpassen aan de context waarbinnen zij worden ingezet. Hoe zo’n algoritme zich ontwikkelt is echter niet van tevoren te voorspellen, vooral ook omdat die context kan veranderen. Daarom moet het systeem permanent worden gemonitord. Ook al is de automatische besluitvorming niet discriminerend op het moment dat het wordt ingezet, dan nog kan dat na verloop van een jaar of zelfs een maand anders zijn. 

     
  7. Betrek externe experts: Bedrijven en overheidsorganisaties zijn vaak niet neutraal ten aanzien van hun eigen systemen. Er zijn kosten voor gemaakt, er is tijd in geïnvesteerd, er is prestige mee gemoeid. Daarom moet de evaluatie van het systeem niet alleen in handen komen van de organisatie zelf, maar dienen externe experts te worden betrokken. Deze groep van externe experts moeten kennis hebben van het domein waarbinnen het algoritme wordt ingezet, van de vigerende juridische regels en de geldende technische standaarden. 

     
  8. Controleer op indirecte discriminatie: De controle op algoritmes moet niet alleen gaan om de vraag of het systeem expliciet besluiten neemt op basis van discriminerende gronden zoals ras, geaardheid, levensovertuiging of leeftijd. Ook al houden automatische besluitvormingssystemen niet direct rekening met deze factoren, dan kunnen zij dat indirect doen. Als een predictive policing systeem bijvoorbeeld postcodegebieden gebruikt dan kan dat leiden tot indirecte discriminatie, omdat het de politie kan adviseren om veel te surveilleren in de Bijlmer of de Schilderswijk. Het risico op zichzelf vervullende voorspellingen is hier groot. 

     
  9. Check legitimiteit: Niet al het onderscheid is verboden, zelfs directe of indirecte discriminatie kan in voorkomende gevallen geoorloofd zijn. Een automatisch besluitvormingssysteem dat een castingbureau helpt bij het selecteren van sollicitatiebrieven mag bijvoorbeeld discrimineren op basis van geslacht als er wordt gezocht naar een vrouwelijke acteur. Een postcodegebied of andere factoren die mogelijk kunnen leiden tot indirecte discriminatie zijn niet in alle gevallen verboden, dat hangt af van de context. Daarom moet er altijd worden gecontroleerd, niet alleen of het systeem onderscheid maakt, maar ook hoe, waarom en of daar goede redenen voor zijn. 

     
  10. Documenteer alles: Documenteer alle beslissingen ten aanzien van de dataverzameling, selectie van de data, de ontwikkeling van het algoritme en de aanpassingen die daaraan worden gedaan. Documentatie moet zowel begrijpelijk zijn voor burgers die een beroep doen op hun rechten, voor de externe experts die een onafhankelijk audit doen en voor toezichthouders als de Autoriteit Persoonsgegevens die het systeem wil controleren.   

  

 Meer info

Bram Visser, bram.visser@vub.be

 

Documenten:

De handreiking AI-systeemprincipes voor non-discriminatie,  

De korte versie van de handreiking.
De one-pager
 

 

 

PE
Contacteer ons
Sicco Wittermans
Sicco Wittermans Woordvoerder en persrelaties Vrije Universiteit Brussel
Sicco Wittermans
Sicco Wittermans Woordvoerder en persrelaties Vrije Universiteit Brussel
Over Press - Vrije Universiteit Brussel

volg ons op twitter @VUBrussel


De Vrije Universiteit Brussel is een internationaal georiënteerde universiteit in Brussel, het hart van Europa. Door het afleveren van hoogstaand onderzoek en onderwijs op maat, wil de VUB een actieve en geëngageerde bijdrage leveren tot een betere maatschappij.

De Wereld Heeft Je Nodig

De Vrije Universiteit Brussel neemt haar wetenschappelijke en maatschappelijke verantwoordelijkheid met liefde en daadkracht op. De VUB lanceerde daarom het platform ’De Wereld Heeft Je Nodig’.  Hier worden rond zes P’s ideeën, acties en projecten samengebracht, opgestart en uitgebouwd. De eerste P staat voor People, want daar draait alles om: mensen gelijke kansen geven, welvaart, welzijn, respect. Peace staat voor het bestrijden van klein en groot onrecht in de wereld. Prosperity gaat armoede en ongelijkheid te lijf. Planet staat voor acties rond biodiversiteit, klimaat, luchtkwaliteit, dierenrechten ... Met Partnership zoekt de VUB samenwerkingen om de wereld een betere plaats te maken. De zesde en laatste P is van Poincaré, de Franse filosoof Henri Poincaré aan wie de VUB haar leuze ontleent, dat het denken zich aan niets mag onderwerpen, behalve aan de feiten zelf. De VUB is een 'urban engaged university’, sterk verankerd in Brussel en Europa en werkend volgens de principes vrij onderzoek. www.vub.be/dewereldheeftjenodig

Press - Vrije Universiteit Brussel
Pleinlaan 2
1050 Brussel