Nieuwscentrum
Arlette van Wissen

dec 07, 2021

“We moeten vooroordelen niet meeprogrammeren”

Gemiddelde leestijd: 5-7 minuten

Arlette van Wissen heeft een missie: ervoor te zorgen dat de algoritmes die Philips ontwikkelt zo veel mogelijk ‘bias-free’ zijn, dus vrij van vooroordelen.  
 
Hoewel kunstmatige intelligentie (AI) de potentie heeft om de zorg voor iedereen betaalbaarder en toegankelijker te maken, brengt het ook nieuwe aandachtspunten met zich mee, zoals Chief Technology Officer Henk van Houten al waarschuwde: “Mensen selecteren de data waarop algoritmes worden gebaseerd, en dus zijn ze nog steeds vatbaar voor onbewuste vooroordelen”.

AI-winter

Arlette zette haar eerste stappen in de wereld van AI op een moment dat het onderwerp nog niet bepaald ‘hot’ was. “De tijd waarin ik aan mijn studie Cognitieve Kunstmatige Intelligentie begon, in 2003, was aan het eind van een periode die achteraf een ‘AI-winter’ wordt genoemd. Na een aantal doorbraken in de jaren tachtig en negentig, zoals de Deep Blue-technologie van IBM die voor het eerst van mensen wist te winnen met schaken, was het weer een tijdje relatief stil.

 

Er waren heel innovatieve technologieën, maar nog niet de data om ze impact te laten hebben. Daar kwam eigenlijk pas weer beweging in rond 2009, toen er dankzij social media, sensoren en smartphones steeds meer data beschikbaar kwamen.”

Arlette van Wissen

Haar studiekeuze was niet alleen ingegeven door een voorliefde voor informatica. “Het mooie aan cognitieve kunstmatige intelligentie is dat het een combinatie is van informatica, taalkunde, psychologie en filosofie. Het begint met het begrijpen van cognitie: hoe nemen we eigenlijk waar, hoe verwerken we informatie en hoe hebben we interactie met de wereld om ons heen? Pas als je dat snapt, kun je computermodellen ontwikkelen die dat ook kunnen of kunnen ondersteunen.”

Philips combineert het beste van de academische wereld en het bedrijfsleven, omdat je ook echt ruimte krijgt om onderzoek te doen.

Arlette van Wissen

Senior Data Scientist

Arlette kwam tijdens haar promotieonderzoek aan de Vrije Universiteit Amsterdam in aanraking met AI in de gezondheidszorg: “In mijn PhD heb ik me vooral gericht op het modelleren van menselijk gedrag en het stimuleren van gedragsverandering met behulp van AI. We onderzochten onder meer hoe je AI kunt inzetten om patiënten meer therapietrouw te maken.

 

Denk aan mensen met diabetes type 2 of aan hartpatiënten; de therapie die ze krijgen is vaak gericht op een gezondere levensstijl. We hebben onderzocht of je met behulp van AI kunt detecteren wat de belangrijkste obstakels zijn voor deze patiënten om te kiezen voor een gezonde levensstijl en hoe we hun gedrag op een positieve manier kunnen beïnvloeden.”

 

Na haar promotieonderzoek lonkten zowel de academische wereld als het bedrijfsleven. “Ik kwam er op een gegeven moment achter dat Philips een mooie combinatie van die twee biedt, omdat je ook echt ruimte krijgt om onderzoek te doen.”

Onbewuste vooroordelen

Aanvankelijk hield ze zich ook binnen Philips bezig met onderzoek naar AI en gedragsverandering. “Toen was ik betrokken bij een initiatief binnen Research om inclusiviteit en diversiteit meer te stimuleren. Dat was in de tijd dat er regelmatig nieuws naar buiten kwam over problemen bij grote technologiebedrijven, die onbewust bepaalde vooroordelen in hun algoritmes hadden opgenomen.

 

Er was ineens een groot bewustzijn bij iedereen in het vakgebied; als algoritmes zo’n groot onderdeel van ons leven zijn, dan moeten we er wel voor zorgen dat die zo veel mogelijk vrij zijn van vooroordelen. Dat geldt zeker voor de gezondheidszorg; dat is een kwetsbaar domein, dus moet je hier extra alert op zijn.”

Er was ineens een groot bewustzijn bij iedereen in het vakgebied; als algoritmes zo’n groot onderdeel van ons leven zijn, dan moeten we er wel voor zorgen dat die zo veel mogelijk vrij zijn van vooroordelen. Dat geldt zeker voor de gezondheidszorg; dat is een kwetsbaar domein, dus moet je hier extra alert op zijn.

Arlette van Wissen

Senior Data Scientist

Hartfalen bij vrouwen minder goed herkend

Voorbeelden van hoe het mis zou kunnen gaan zijn er genoeg, aldus Arlette: “Het is een bekend feit dat veel medisch onderzoek is gebaseerd op data van met name witte mannen. AI-modellen worden vaak getraind op databases met een vertegenwoordiging van vrouwen van maximaal 30 procent. Dat kan een enorme impact hebben.

 

Zo is bekend dat symptomen van hartfalen bij vrouwen minder goed worden herkend, omdat de kennis en informatie die beschikbaar is, met name gebaseerd is op witte mannen van middelbare leeftijd. Maar ook jonge vrouwen kunnen hartfalen krijgen, alleen zijn de symptomen vaak anders.

 

Dat laat maar weer zien: vooroordelen in data en AI-modellen kunnen levensgevaarlijk zijn. Andersom is gebleken dat mannen vaak worden ondergediagnosticeerd voor depressie en eetstoornissen, waar culturele vooroordelen over het uiten van emoties mogelijk aan bijdragen.”

 

Niet alleen geslacht is een belangrijke factor, maar ook afkomst, leeftijd en fysieke eigenschappen als lengte en gewicht spelen mee. “Een bekend recent voorbeeld in de medische wetenschap is patiëntonderzoek naar de nierfunctie. Een aantal onderzoekers heeft ontdekt dat zwarte patiënten vaak een relatief betere score kregen bij nierfunctie-onderzoek dan witte mensen met dezelfde metingen, omdat er onterecht van werd uitgegaan dat zwarte mensen meer spiermassa zouden hebben. Als je bedenkt dat de resultaten van deze onderzoeken worden gebruikt om te bepalen of een patiënt in aanmerking komt voor een donornier, dan is dat best heftig.”

Arlette van Wissen

Het gaat om bewustwording

Arlette maakt nu onderdeel uit van een ‘Data & AI Center of Excellence’ binnen Philips, waarin zij collega’s in alle onderdelen van de organisatie helpt om data en AI-modellen zo veel mogelijk vooroordelenvrij en eerlijk (bias-free and fair) te maken.

 

“Dat gaat van het ontwikkelen van tools en richtlijnen, tot training en advies; we helpen collega’s in het veld om hier stappen in te maken. Maar het gaat ook om bewustwording. Er zijn veel publieke datasets die worden gebruikt voor medisch onderzoek, die nou niet bepaald een goede afspiegeling zijn van de samenleving, bijvoorbeeld omdat er relatief veel data van mannen of een witte populatie in zitten. Als je je daar bewust van bent, dan kun je al bepaalde correcties toepassen om ervoor te zorgen dat er geen bias in je model terecht komt.”

Arlette van Wissen

Levert haar werk ook interessante discussies op feestjes op? “Mensen lijken nog wel eens te denken dat dit een probleem is dat zichzelf uiteindelijk wel oplost. Dat is niet zo, omdat er bewustwording voor nodig is om de patronen te doorbreken. We moeten er scherp op blijven dat we vooroordelen niet onbewust mee programmeren. Als je er niets aan doet, kunnen vooroordelen makkelijk versterkt worden in een algoritme. Daarbij heeft iedereen een bepaalde bias. Ik ook, of ik dat nu wil of niet. Het is het belangrijkste dat je je daar bewust van bent en bepaalde checkpoints in je werk inbouwt om die vooroordelen uit de data en de modellen te houden.”

Mensen lijken nog wel eens te denken dat dit een probleem is dat zichzelf uiteindelijk wel oplost. Dat is niet zo. Als je er niets aan doet, kunnen vooroordelen makkelijk versterkt worden in een algoritme.

Arlette van Wissen

Senior Data Scientist

In haar huidige rol kan ze haar voorliefde voor interactie tussen mens en AI ook weer kwijt: “We hebben nogal eens de neiging om AI te zien als de oplossing voor alles. In ons werk zien we heel duidelijk dat AI ons tools geeft die heel handig zijn voor bepaalde dingen, maar die ook weer eigen uitdagingen met zich meebrengen. Het is geen wondermiddel, maar een hulpmiddel voor mensen, waar we goed mee om moeten gaan.”

 

Bij Philips vinden we het belangrijk dat mensen zichzelf kunnen zijn, goed in hun vel zitten en zichzelf kunnen ontwikkelen. In de serie Philips & Ik gaan we op zoek naar collega’s die iets bijzonders doen op het gebied van Inclusiviteit & Diversiteit, gezondheid en welzijn of persoonlijke ontwikkeling.
 
Lees ook:
 
“Als je jezelf blijft ontwikkelen en lekker in je vel zit, kun je de beste versie van jezelf zijn”, een interview met Suzanne Verzijden, Head of HR Benelux, over wat er nu eigenlijk voor zorgt dat mensen graag bij Philips willen werken.

 

Raquel Schroyen zette haar Philips-vrijwilligersuren in om kaartjes te sturen naar eenzame ouderen: “Iedereen vindt het leuk om een kaartje te krijgen. Het is een soort knuffel in een envelop.”

 

Stephano Bel en ck Andrade richtten een Europese Black Employee Resource Group op; een veilige plek om open en kwetsbaar te zijn over inclusiviteit en diversiteit – voor iedereen.

Delen op sociale media

Onderwerpen

Contact

Tommie Dijstelbloem

Tommie Dijstelbloem

Woordvoerder Philips Benelux

Tel: +31 6 19 28 83 20

You are about to visit a Philips global content page

Continue

You are about to visit a Philips global content page

Continue

U kunt onze website het beste bekijken met de nieuwste versie van Microsoft Edge, Google Chrome of Firefox.