AccueilÉconomieDoctorante primée, Virginie Do travaille à rendre l’IA plus inclusive

Doctorante primée, Virginie Do travaille à rendre l’IA plus inclusive

Virginie Do, originaire de Cormeilles-en-Parisis, a obtenu le prix Prix L’Oréal-Unesco FWIS pour ses travaux visant à corriger les biais de genre et d’origine dans les algorithmes d’IA.
Virginie Do, doctorante au Lamsade de l’université Paris Dauphine-PSL, travaille à corriger les biais de genre et d’origine dans les algorithmes d’IA.
© Clemence Losfeld - Virginie Do, doctorante au Lamsade de l’université Paris Dauphine-PSL, travaille à corriger les biais de genre et d’origine dans les algorithmes d’IA.

Économie Publié le ,

Virginie Do a grandi à Cormeilles-en-Parisis, dans le Val-d’Oise. Après une prépa scientifique, elle étudie les mathématiques appliquées et l’informatique à l’Ecole polytechnique. Souhaitant enrichir son parcours, elle suit un master en social data science à l’université d’Oxford. Elle y découvre les impacts sociétaux de l’IA et décide d’y consacrer ses recherches. Elle a récemment obtenu son doctorat au Lamsade (Laboratoire d’analyse et de modélisation de systèmes pour l’aide à la décision) de l’université Paris Dauphine-PSL, sur l’élaboration de méthodes permettant d’évaluer et de corriger les biais de genre, d’origine dans les algorithmes. Elle a développé de nouveaux algorithmes de recommandation de contenu sur les réseaux sociaux qui sont “capables de booster les créateurs sous-représentés sans détruire la qualité des recommandations pour les utilisateurs”.

Pourquoi avoir décidé de vous consacrer vos recherches aux impacts sociétaux de l’IA ?

Que l’on regarde du côté des CV sur les sites d’offre d’emploi, de la reconnaissance faciale pour déverrouiller son smartphone, ou encore de la recommandation de contenu sur les réseaux sociaux, l’IA est présente dans quantité d’applications que nous utilisons tous les jours. Derrière elle, il y a beaucoup de mathématiques et d'informatique, des disciplines auxquelles j'ai été formée et qui me passionnent énormément. Et j'avais envie d'utiliser ces compétences-là pour m’attaquer à un problème assez concret et qui a un impact important sur la société.

Vous avez étudié des méthodes pour évaluer et corriger les biais de genre, d’origine dans les algorithmes. Pourriez-vous nous l'expliquer ?

En fait, ces algorithmes d'IA apprennent sur des données et des décisions humaines. Et comme ils apprennent à copier ces décisions humaines, ils risquent de reproduire nos propres biais. Par exemple, les algorithmes qui vont trier des CV sur des sites de recherche d'emploi vont avoir tendance à favoriser les CV d'hommes par rapport aux CV de femmes, parce qu'ils ont appris sur des données, des décisions humaines passées qui portaient déjà en elles ce biais-là.

Dans un autre registre, les algorithmes de reconnaissance faciale fonctionnent mieux avec les personnes blanches, puisqu’ils ont été surtout entraînés à partir d’images qui les représentent. A contrario, ils fonctionnent moins bien sur les personnes asiatiques ou les personnes noires. C’est ce genre de problèmes, présents dans une bonne quantité d’applications, que je cherche à corriger.

Dans ma thèse, je m'intéresse plus particulièrement aux IA qui recommandent du contenu sur les réseaux sociaux et qui, elles, risquent de rendre moins visibles les groupes marginalisés. J’essaie de faire en sorte que tous les groupes, tous les créateurs de contenu, aient une chance d’être visibles.

L’avènement de l’IA générative, comme ChatGPT, est aussi un sujet pour vous ?

Oui, absolument. Pour la suite de ma carrière et de mes recherches, c'est le type d'algorithme d'IA sur lequel j'aimerais bien travailler, parce qu'il y a énormément de choses à faire. On a envie d'éviter que ces IA génératives comme Chat GPT produisent des propos toxiques, violents, racistes. Il s’agit d’éviter, en somme, les risques sociétaux de ces IA qui sont capables de produire du contenu en masse. Comment le rendre plus acceptable et éviter les dérives ?

Comment faut-il procéder ? En trouvant une manière différente d’entraîner ChatGPT ?

Oui, tout à fait. Ça peut être en ajoutant d'autres objectifs. Grossièrement, les algorithmes sont entraînés pour maximiser certaines métriques, certains critères. Il faut ajouter des critères qui prennent plus en compte l'impact et les risques de dérive que ces algorithmes peuvent avoir. Les méthodes actuelles qui visent à empêcher les biais fonctionnent un peu comme ça. L’idée, c’est de se dire qu’on ne va pas simplement essayer de faire le mieux sur les métriques habituelles de performance, mais aussi faire en sorte de pénaliser les biais et les risques de ces IA.

Les équipes derrière l’IA générative ont entraîné leur modèle en ayant recours à des salariés sous-payés pour “étiqueter“ des contenus toxiques. Qu’en pensez-vous ?

Oui, cela pose des enjeux éthiques majeurs, parce qu' à l'heure actuelle, les entreprises qui développent des IA telles que Chat GPT reposent énormément sur une main d'œuvre humaine invisible pour nettoyer, rendre ces chatbot plus présentables. C'est important de prendre en compte l'impact global et de trouver des solutions viables. C'est un enjeu majeur.

Quelle a été votre réaction après l’obtention du prix l’Oréal-Unesco FWIS 2023 ?

J'étais très heureuse, notamment parce que ce prix apporte énormément de reconnaissance à mon travail. En fait, pendant la thèse, on a vraiment le nez dans ses recherches, dans son travail. On a très peu de recul et on ne se rend pas trop compte si ce qu'on fait peut intéresser ou si c’est bien, tout simplement parce qu'on a assez peu de signes extérieurs de validation. Donc ce prix m'encourage à poursuivre dans la recherche en intelligence artificielle. Cela me motive énormément.

Votre parcours scientifique s’est déroulé sans encombre ? Aviez-vous des proches dans le domaine ? Que pensez-vous de la représentation des femmes en science ?

Mon père est ingénieur et m'a encouragée à aller vers les sciences. Mais je pense qu'il y a beaucoup de jeunes filles et jeunes femmes qui ne sont pas dans ce cas, qui n'ont pas de scientifiques dans leur entourage pour les y encourager. Ce n’est pas la société, ni l’école, qui vont les pousser à faire des sciences et surtout des mathématiques. C’est pour cela que je pense que ce genre de prix, qui favorise une meilleure représentativité des femmes et une meilleure valorisation des femmes dans les sciences, peut encourager, je pense, des jeunes étudiantes, lever des barrières et donner des exemples de jeunes femmes qui ont suivi ce chemin-là.

Partager :
Abonnez-vous
  • Abonnement intégral papier + numérique

  • Nos suppléments et numéros spéciaux

  • Accès illimité à nos services

S'abonner
Journal du 25 avril 2023

Journal du25 avril 2023

Journal du 18 avril 2023

Journal du18 avril 2023

Journal du 11 avril 2023

Journal du11 avril 2023

Journal du 04 avril 2023

Journal du04 avril 2023

S'abonner
Envoyer à un ami
Connexion
Mot de passe oublié ?