Hoe kunnen we leren van discriminerende algoritmes?
Software die geen zwarte gezichten herkent of aanslaat op mensen met een tweede nationaliteit. Algoritmes blijken regelmatig te discrimineren. Hoe kunnen we dit stoppen en het proces omkeren? NEMO Kennislink sprak met twee AI-specialisten die het vertrouwen van de burger willen terugwinnen.
Een zwarte collega van de Canadese promovendus Colin Madland wilde in september zijn virtuele achtergrond aanpassen tijdens een Zoom-meeting. Maar het gezichtsherkenningsalgoritme van Zoom herkende zijn gezicht niet. Pas toen hij voor een lichte wereldbol ging staan, herkende de software zijn hoofd en kreeg hij de gewenste achtergond. Toen Madland dit deelde op Twitter, kwam de volgende misstand aan het licht: het Twitter-algoritme verkleinde de foto en knipte de zwarte man er zelfs helemaal uit. Artificiële Intelligentie (AI) kampt dus met bepaalde vooroordelen.
Neuro-informaticus Sennay Ghebreab doet aan de Universiteit van Amsterdam onderzoek naar manieren waarop we algoritmes kunnen ontwikkelen die niet discrimineren. Zelf werd hij als zwarte man eind jaren 2000 niet herkend door een automatische draaideur, die zijn witte collega’s wel naar buiten liet. Het ‘draaideurincident’ inspireerde hem om onderzoek te doen naar mechanismen van vooroordelen en discriminatie binnen de neuro-informatica, een combinatie van neuro- en computerwetenschappen. Die twee hebben veel gemeen: “AI werkt net als ons brein. Ook ons brein is een patroonherkenner, een discriminator.”
Lees meer op NEMO Kennislink.