Informations Presse
Arlette van Wissen

déc. 07, 2021

« Nous devons éviter de transmettre des préjugés »

Temps de lecture moyen: 5-7 minutes

Arlette van Wissen a une mission: veiller à ce que les algorithmes développés par Philips soient aussi « bias-free », autrement dit impartiaux, que possible.

 

Si l'intelligence artificielle (IA) a le potentiel de rendre les soins de santé plus abordables et accessibles à tous, elle suscite également de nouvelles inquiétudes, comme l'a souligné le Chief Technology Officer, Henk van Houten: "Les personnes sélectionnent les données sur lesquelles les algorithmes sont basés, et ils sont donc toujours susceptibles d'avoir des préjugés inconscients".

L'hiver de l'IA

Arlette van Wissen a fait ses premiers pas dans l'univers de l'IA à une époque où le sujet n'était pas encore « brûlant ». « Le début de mes études en intelligence artificielle cognitive, en 2003, a coïncidé avec la fin d'une période que l'on a par la suite appelée "l'hiver de l'IA". Après plusieurs avancées dans les années 80 et 90, telles que la technologie Deep Blue d'IBM qui a pour la première fois séduit les adeptes des échecs, les choses ont été relativement calmes pendant un certain temps.

 

Des technologies très innovantes ont vu le jour, mais celles-ci ne disposaient pas encore des données pour avoir un impact. En fait, la roue ne s'est remise qu'à tourner vers 2009, lorsque la disponibilité des données s'est accrue grâce aux réseaux sociaux, aux capteurs et aux smartphones. »

Arlette van Wissen

Son choix d'études n'était pas seulement motivé par une prédilection pour l'informatique. « Ce qui est bien avec l'intelligence artificielle cognitive, c'est qu'elle mêle l'informatique, la linguistique, la psychologie et la philosophie. Cela commence par la compréhension de la cognition : comment percevons-nous, comment traitons-nous l'information et comment interagissons-nous avec le monde qui nous entoure ? Ce n'est que lorsqu'on a compris ces aspects que l'on peut développer des modèles informatiques qui les intègrent ou les étayent. »

Philips allie le meilleur du monde universitaire et du secteur des entreprises, car il y a là un vrai créneau pour la recherche.

Arlette van Wissen

Senior Data Scientist

Arlette s'est familiarisée avec l'IA dans le domaine de la santé lors de sa thèse de doctorat à la Vrije Universiteit d'Amsterdam : « Dans le cadre de mon doctorat, je me suis essentiellement concentrée sur la modélisation du comportement humain et l'incitation au changement de comportement à l'aide de l'IA. Nous avons étudié, entre autres, les moyens d'exploiter l'IA pour favoriser l'observance thérapeutique.

 

Prenons l'exemple des personnes atteintes de diabète de type 2 ou des patients cardiaques ; la thérapie qu'ils reçoivent est souvent axée sur un mode de vie plus sain. Nous avons cherché à savoir si l'on pouvait utiliser l'IA pour détecter les principaux obstacles au choix d'un mode de vie sain et comment nous pouvions influencer positivement le comportement de ces patients. »

 

Après son doctorat, elle s'est tournée vers le monde universitaire et le secteur des entreprises. « Un jour, j'ai découvert que Philips offrait une belle combinaison des deux, car il y a là un vrai créneau pour faire des recherches. »

Préjugés inconscients

Initialement, elle se consacrait également, au sein de Philips, à la recherche sur l'IA et le changement de comportement. « Ensuite, j'ai participé à une initiative au sein de Research pour favoriser davantage l'inclusion et la diversité. C'était à l'époque où des informations parvenaient régulièrement sur les problèmes rencontrés par les grandes entreprises technologiques qui avaient inconsciemment incorporé certains préjugés dans leurs algorithmes.

 

Soudain, il y a eu une grande prise de conscience parmi les acteurs sur le terrain ; si les algorithmes occupent une si grande place dans nos vies, nous devons nous assurer qu'ils sont aussi impartiaux que possible. Cela s'applique sans aucun doute aux soins de santé ; c'est un domaine vulnérable, il faut donc être très vigilant à ce sujet. »

Soudain, il y a eu une grande prise de conscience parmi les acteurs sur le terrain ; si les algorithmes occupent une si grande place dans nos vies, nous devons nous assurer qu'ils sont aussi impartiaux que possible. Cela s'applique sans aucun doute aux soins de santé ; il s'agit d'un domaine vulnérable, il faut donc être très vigilant à cet égard.

Arlette van Wissen

Senior Data Scientist

Insuffisance cardiaque moins bien reconnue chez les femmes

Il y a de nombreux exemples de situations qui pourraient mal tourner, selon Arlette : « C'est un fait bien connu qu'une grande partie de la recherche médicale est basée sur des données provenant principalement d'hommes blancs. Les modèles d'IA sont souvent entraînés sur des bases de données où la représentation féminine ne dépasse pas 30 %. Cela peut avoir des répercussions énormes.

 

Par exemple, on sait que les symptômes de l'insuffisance cardiaque chez les femmes sont moins bien reconnus parce que les connaissances et les informations disponibles sont principalement basées sur les hommes blancs d'âge moyen. Mais les jeunes femmes peuvent aussi souffrir d'insuffisance cardiaque, bien que les symptômes soient souvent différents.

 

Cela démontre encore que les biais dans les données et les modèles peuvent être extrêmement dangereux. À l'inverse, il a été constaté que les hommes sont souvent sous-diagnostiqués pour la dépression et les troubles de l'alimentation, ce qui peut contribuer aux préjugés culturels concernant l'expression des émotions. »

Scanner 3D testé avec un pantalon, et non une robe

Non seulement le sexe est un facteur important, mais l'origine, l'âge et les caractéristiques physiques, telles que la taille et le poids, jouent aussi un rôle. « Un exemple récent bien connu en science médicale est la recherche sur la fonction rénale des patients. Plusieurs chercheurs ont découvert que les patients noirs obtenaient souvent un score relativement meilleur aux tests de la fonction rénale que les patients blancs avec les mêmes mesures, car il était supposé à tort que les premiers auraient plus de masse musculaire. Si l'on considère que les résultats de ces études sont utilisés pour déterminer l'éligibilité d'un patient à la transplantation rénale, c'est assez effrayant. »

Arlette van Wissen

Une question de sensibilisation

Arlette fait désormais partie d'un ‘Data & AI Center of Excellence’ au sein de Philips, qui aide les collaborateurs de l'entreprise, tous domaines confondus, à rendre les données et les modèles d'IA aussi impartiaux et équitables (bias-free and fair) que possible.

 

« Cela va du développement d'outils et de directives à la formation et aux conseils ; nous aidons nos collègues sur le terrain à prendre des mesures dans cette direction. Mais c'est aussi une question de sensibilisation. Il existe de nombreux ensembles de données publiques utilisés pour la recherche médicale qui ne reflètent pas exactement la société, par exemple parce qu'ils contiennent une quantité relativement importante de données provenant d'hommes ou d'une population blanche. Si vous en êtes conscient, vous pouvez déjà appliquer certaines corrections pour vous assurer qu'aucun biais ne s'introduit dans votre modèle. »

Arlette van Wissen

Si son travail suscite aussi des discussions intéressantes lors de fêtes ? « Les gens semblent parfois penser que c'est un problème qui finira par se résoudre. Ce n'est pas le cas, car il faut une prise de conscience pour briser les schémas. Nous devons rester vigilants pour ne pas programmer de biais inconsciemment. Si vous ne faites pas attention, les clichés peuvent facilement être renforcés dans un algorithme. On a tous des préjugés. Moi y compris, que je le veuille ou non. Le plus important est d'en être conscient et d'intégrer certains points de contrôle dans son travail pour éviter que ces préjugés ne se répercutent dans les données et les modèles. »

Les gens semblent parfois penser que c'est un problème qui finira par se résoudre. Ce n'est pas vrai. Si vous ne faites pas attention, les préjugés peuvent facilement être renforcés dans un algorithme.

Arlette van Wissen

Senior Data Scientist

Dans le cadre de sa fonction actuelle, sa prédilection pour l'interaction entre les humains et l'IA est mise à rude épreuve : « Nous avons tendance à voir l'IA comme la solution à tout. Dans notre travail, nous voyons très clairement que l'IA nous donne des outils qui sont très utiles à certains égards, mais qui apportent aussi leur lot de défis. Ce n'est pas la panacée, mais un outil pour les gens, avec lequel nous devons composer. »

 

Chez Philips, nous pensons qu'il est important que les individus puissent être eux-mêmes, se sentir bien dans leur peau et s'épanouir. Dans la série « Philips et moi », nous partons à la rencontre des collaborateurs qui agissent en faveur de l'inclusion et de la diversité, de la santé et du bien-être ou du développement personnel.

Partager sur les réseaux sociaux

Sujets

Contact

Tommie Dijstelbloem

Tommie Dijstelbloem

Woordvoerder Philips Benelux

Tel: +31 6 19 28 83 20

You are about to visit a Philips global content page

Continue

Articles connexes

You are about to visit a Philips global content page

Continue

Notre site s'affiche mieux sur la dernière version d'Microsoft Edge, Google Chrome ou Firefox.