Pacte pour une Intelligence Artificielle égalitaire entre les femmes et les hommes

Vous trouverez ci-dessous la synthèse du Pacte pour Intelligence artificielle égalitaire entre les femmes et les hommes.

 

Organisations, Entreprises publiques et Privées, Syndicats, Associations,

  mobilisez-vous en faveur d’une IA éthique, responsable , égalitaire F/H.

 C’est possible, c’est le moment, les solutions existent

Soutenir le Pacte pour une IA égalitaire entre les femmes et les hommes

 L’intelligence artificielle (IA) est une révolution scientifique, technique, culturelle, économique, sociale qui transforme de fond en comble les sociétés et bouleverse nos vies. Son incidence est en particulier cruciale sur l’égalité entre les femmes et les hommes à travers la reproduction et la diffusion de biais sexistes.

Ce Pacte est un appel à la prise de conscience généralisée des effets discriminants de l’IA et à l’engagement des soutiens de les corriger. Il s’adresse aux dirigeant-es des secteurs public ou privé, aux organismes de recherche et de formation, aux entreprises qui produisent du numérique, aux entreprises utilisatrices du numérique et aux consultant·es en IA.

PROPOSITIONS

Dans l’immédiat et en continu, iI faut former à l’égalité tous ceux et celles qui interviennent dans la conception, la fabrication et le développement de l’IA :

> les prescripteurs et les prescriptrices, les utilisateurs et les utilisatrices de l’IA aux principes de base de l’IA et aux biais de sexe possiblement générés par l’IA.

I – AGIR SUR LES DONNÉES ET SUR LES ALGORITHMES POUR UNE IA AUX RÉSULTATS NON SEXISTES.

L’IA créée par l’intelligence humaine reproduit les inégalités existantes entre les femmes et les hommes.

Les algorithmes, briques de base de l’IA, programmés par des développeurs et développeuses – dont 90% sont des hommes – reflètent leur vision du monde à chaque étape de leur développement (conception, codage, apprentissage, développement, etc.). Ils reproduisent « automatiquement leurs stéréotypes de genre plus ou moins conscients et les diffusent à grande échelle.

Les bases de données qui alimentent l’apprentissage des algorithmes reflètent fidèlement les inégalités qui existent encore dans les sociétés, compte tenu des processus de sélection automatiques et de la prédominance historique et actuelle des hommes dans la production d’informations : politiques scientifiques, économiques, artistiques, journalistiques, statistiques. 

A – DEVELOPPER DES BASES DE DONNÉES ÉGALITAIRES

  1. Fournir des données désagrégées par sexe : combler le « gender data gap ».
  2. Mesurer les inégalités : ce qu’on ne compte pas n’existe pas.
  3. Équilibrer le volume des informations sur les femmes par rapport à celui consacré aux hommes
  4. Corriger les biais de sexe dans les BDD : analyser les textes et les images, identifier les discriminations et les corriger.
  5. Accélérer la diffusion et l’utilisation des BDD égalitaires.

B – CONCEVOIR ET DEVELOPPER DES ALGORITHMES ÉGALITAIRES

  1. Encoder dans le script des algorithmes des objectifs égalitaires : vérifier les enjeux de genre sur toute la chaine de production de l’IA, dès l’écriture des objectifs de l’algorithme jusqu’au codage.
  2. Utiliser l’IA comme levier pour favoriser l’égalité : utiliser l’IA pour mesurer et rendre visibles les inégalités ou, pour aller plus loin, introduire des lignes de code volontairement égalitaires (ex : fournir 50% de CV d’hommes et 50% de CV de femmes).
  3. Veiller à ne pas développer des IA qui enferment les femmes dans un second rôle en attribuant un genre neutre aux assistances numériques.

 

II – CRÉER UN ENVIRONNEMENT ÉTHIQUE FAVORABLE AU DÉVELOPPEMENT D’UNE IA ÉGALITAIRE.

Algorithmes simplistes, erreurs statistiques, opacité de fonctionnement, reproduction des inégalités : le fonctionnement des algorithmes pose des questions éthiques. Il s’agit de mettre au point et de développer simultanément des instruments statistiques de détection, d’analyse des biais, et des méthodes de correction durables. Il faut éclaircir, rendre transparent, l’enchainement et les différentes étapes de fabrication et de fonctionnement des programmes algorithmiques (objectif, apprentissage, évaluation, produit) et leurs dérives possibles pour pouvoir les évaluer et les contrôler.

  1. Développer les recherches multidisciplinaires sur l’IA et une éthique égalitaire, soit définir ce que doit être un algorithme équitable, ainsi que des normes, des standards collectifs, des procédures de tests et de diagnostics
  2. Intégrer le genre dans la recherche sur l’IA.
  3. Généraliser les audits de la chaine de production des IA.
  4. Créer une instance éthique et de régulation de l’IA au niveau France pour les IA, comme conseillé dans le rapport Villani de mars 2018.
  5. Développer un label IA équitable (ORCCA, AFNOR, ADEL).
  • Intégrer le label IA équitable dans les appels d’offres des organisations publiques et privées, afin de sélectionner des fournisseurs d’IA respectant les critères d’algorithmes et de données non biaisées.

 

III – AUTANT DE FEMMES QUE D’HOMMES DANS L’IA, À TOUS LES NIVEAUX ET DANS TOUS LES MÉTIERS.

Comme dans beaucoup de disciplines et de professions scientifiques, les femmes sont absentes dans le secteur de l’intelligence artificielle où elles ne représentent que 12 % des salarié·es. L’absence des femmes dans le secteur est une des raisons clés du sexisme des algorithmes conçus et développés par et dans un univers masculin.

A – LUTTER CONTRE LES STÉRÉOTYPES DE SEXE QUI EMPÊCHENT LES FEMMES DE CHOISIR ET D’ACCÉDER AUX MÉTIERS DE L’INTELLIGENCE ARTIFICIELLE ET DU NUMÉRIQUE

  1. Former les conseiller·es d’orientation (psychologues de l’Éducation nationale) à l’IA et aux biais de genre.
  2. Inciter plus de filles à choisir la spécialité « Numérique et Sciences Informatiques » au lycée et à poursuivre des études dans les filières de l’informatique et des mathématiques.
  3. Intégrer systématiquement des modules d’enseignement à l’égalité femmes-hommes dans les formations de formateurs et formatrices, de personnels de l’enseignement et de l’éducation, ainsi que dans les formations numériques.
  4. Apprendre aux femmes et filles à coder.
  5. Orienter des femmes dans les écoles d’ingénieures vers l’IA.
  6. Attirer les filles en mettant en place des conditions d’accueil plus inclusives.
  7. Intégrer l’égalité femmes-hommes dans le management des entreprises du numérique (ex : objectif de mixité clairs et chiffrés, revisiter l’ensemble des processus RH etc.)
  8. Sensibiliser les collaborateurs et collaboratrices des entreprises aux impacts possibles d’une IA non éthique.
  9. Former et sensibiliser les métiers qui utilisent l’IA (ex : marketing, ressources humaines, etc.).
  10. Contrôler l’hyper-précarisation de certains métiers connexes à l’IA, principalement occupés par des femmes.

B – CREER UN CLIMAT GENERAL QUI INCITE LES FEMMES A RESTER DANS LES METIERS DE L’INTELLIGENCE ARTIFICIELLE ET DU NUMERIQUE

  1. Lutter contre le sexisme ordinaire et le harcèlement dans l’univers du numérique (entreprises, écoles et formations), contre la culture « geek» et ses pratiques sexistes (ex : créer une campagne d’information, nommer une référent·e, etc.).
  2. Viser en 3 ans 50% de femmes dans tous les lieux stratégiques du développement de l’IA en insistant sur la transdisciplinarité : instances de recherche et de réflexion, comités d’élaboration et de pilotage, instances de contrôle et de validation, comités d’éthique.
  3. Sensibiliser les médias aux enjeux d’une IA non sexistes : choix et traitement des sujets, présence des femmes etc.
  4. Accompagner le développement des start-up du numérique par des femmes : favoriser l’accès des femmes aux financements et promouvoir des role-models.

 

CONCLUSION SOUS FORME DE MOBILISATION ET D’ENGAGEMENT

Avec la diffusion de ce Pacte, qui s’inscrit dans ses actions de réflexions et de promotion d’une culture de l’égalité, le Laboratoire de l’Egalité souhaite stimuler la mobilisation de tous et de toutes en faveur d’une IA non discriminante, égalitaire, éthique : qu’il s’agisse des responsables du secteur public, des entreprises productrices ou utilisatrices de l’IA, de la société civile (associations, médias, etc.) et par ricochet d’atteindre le grand public.

Soutenir ce Pacte, c’est acter officiellement la prise de conscience claire de l’ensemble des enjeux d’une IA éthique, responsable, qui font système.

C’est manifester sa volonté de s’engager sur ce qui relève de son propre terrain d’action tout en étant vigilant-es sur les autres terrains et prêts à collaborer avec les différentes parties prenantes du système, pour obtenir ensemble des résultats rapides, cohérents responsables.

C’est en prime, prendre conscience de ses propres biais, et du fonctionnement de l’intelligence humaine dont est censée s’inspirer l’intelligence artificielle.

F.A.Q.

Présentation Générale du Pacte 

QUESTION REPONSE
Qu’est-ce que le Pacte ? La Pacte est un ensemble de propositions d’actions concrètes techniques, éthiques et humaines pour faire en sorte que l’IA ne génère pas d’inégalités Femmes-Hommes au travail.
Pourquoi un Pacte ? Pour mettre en lumière l’impact de l’IA sur les inégalités femmes-hommes, sensibiliser et inciter les dirigeant·es des secteurs public et privé, fournisseurs et fournisseuses, utilisateurs et utilisatrices de l’IA à des actions correctrices.

-Pour obtenir des engagements concrets des parties prenantes en faveur d’une IA non discriminante, égalitaire, mixte, responsable, éthique, qui ne freine pas l’égalité professionnelle entre les femmes et les hommes. Et qui, à l’inverse, contribue à construire une culture de l’égalité solide, tenable et durable.

 

Quelle est sa structure ? Quatre ensembles de solutions et d’actions structurent le Pacte en 4 chapitres.

Des actions techniques qui peuvent avoir des résultats à court terme et qui sont peu connues et des actions de fond humaines et éthiques à résultat moyen/long terme. Toutes les actions envisagées sont importantes, interactives et indispensables. Elles peuvent et doivent être menées simultanément. Difficile en effet de programmer des modifications techniques, de les développer et de les généraliser de façon durable si les différent·es acteurs et actrices ne sont pas sensibilisé·es et formé·es, aux enjeux de l’égalité. Improbable également sans des procédures de contrôle régulières, sans l’engagement des responsables des secteurs public et privé et sans une présence équilibrée des femmes dans tous les métiers et à tous les niveaux.

Les 4 ensembles d’actions sont :

I – Agir sur les données et sur les algorithmes pour une IA aux résultats non sexistes :

II – Créer un environnement éthique favorable au développement d’une IA égalitaire.

III – Nommer autant de femmes que d’hommes dans l’IA, à tous les niveaux et dans tous les métiers :

IV – Mobiliser toutes et tous pour une culture de l’IA non sexiste et non discriminante 

 

Quelles sont les actions techniques ? A – DEVELOPPER DES BASES DE DONNÉES ÉGALITAIRES

 

  1. Fournir des données désagrégées par sexe
  2. Mesurer les inégalités
  3. Équilibrer le volume des informations sur les femmes par rapport à celui consacré aux hommes.
  4. Corriger les biais de sexe dans les bases de données
  5. Accélérer la diffusion et l’utilisation des bases de données égalitaires.

 

B – CONCEVOIR ET DEVELOPPER DES ALGORITHMES ÉGALITAIRES

 

1.     Encoder dans le script des algorithmes des objectifs égalitaires

2.     Utiliser l’IA comme levier pour favoriser l’égalité

3.     Veiller à ne pas développer des IA qui enferment les femmes dans un second rôle en attribuant un genre neutre aux assistances numériques.

 

Quelles sont les actions éthiques ? Algorithmes simplistes, erreurs statistiques, opacité de fonctionnement, reproduction des inégalités : le fonctionnement des algorithmes pose des questions éthiques. Il s’agit de mettre au point et de développer simultanément des instruments statistiques de détection, d’analyse des biais, et des méthodes de correction durables. Il faut éclaircir, rendre transparent, l’enchainement et les différentes étapes de fabrication et de fonctionnement des programmes algorithmiques (objectif, apprentissage, évaluation, produit) et leurs dérives possibles pour pouvoir les évaluer et les contrôler.

 

Quelles sont les actions humaines ? A – LUTTER CONTRE LES STÉRÉOTYPES DE SEXE QUI EMPÊCHENT LES FEMMES DE CHOISIR ET D’ACCÉDER AUX MÉTIERS DE L’INTELLIGENCE ARTIFICIELLE ET DU NUMÉRIQUE

 

  1. Former les conseiller·es d’orientation (psychologues de l’Éducation nationale) à l’IA et aux biais de genre.
  2. Inciter plus de filles à choisir la spécialité « Numérique et Sciences Informatiques » au lycée et à poursuivre des études dans les filières de l’informatique et des mathématiques.
  3. Intégrer systématiquement des modules d’enseignement à l’égalité femmes-hommes dans les formations de formateurs et formatrices, de personnels de l’enseignement et de l’éducation, ainsi que dans les formations numériques.
  4. Apprendre aux femmes et filles à coder.
  5. Orienter des femmes dans les écoles d’ingénieur·es vers l’IA.
  6. Attirer les filles en mettant en place des conditions d’accueil plus inclusives.
  7. Intégrer l’égalité femmes-hommes dans le management des entreprises du numérique
  8. Sensibiliser les collaborateurs et collaboratrices des entreprises aux impacts possibles d’une IA non éthique.
  9. Former et sensibiliser les métiers qui utilisent l’IA
  10. Contrôler l’hyper-précarisation de certains métiers connexes à l’IA, principalement occupés par des femmes.

B – CREER UN CLIMAT GENERAL QUI INCITE LES FEMMES A RESTER DANS LES METIERS DE L’INTELLIGENCE ARTIFICIELLE ET DU NUMERIQUE

 

  1. Lutter contre le sexisme ordinaire et le harcèlement dans l’univers du numérique
  2. Viser en 3 ans 50% de femmes dans tous les lieux stratégiques du développement de l’IA en insistant sur la transdisciplinarité : instances de recherche et de réflexion, comités d’élaboration et de pilotage, instances de contrôle et de validation, comités d’éthique.
  3. Sensibiliser les médias aux enjeux d’une IA non sexistes
  4. Accompagner le développement des start-ups du numérique par des femmes : favoriser l’accès des femmes aux financements et promouvoir des role-models.

 

Où se le procurer ? Lien du site
Autres discriminations ? Handicap ? Les IA reproduisent d’autres formes de discrimination (racistes, de classe et d’orientation sexuelle, etc). L’objectif du Laboratoire de l’Egalité est d’obtenir la mise en œuvre de l’égalité professionnelle entre les femmes et les hommes. Ce Pacte se focalise donc sur les inégalités de genre dans le secteur de l’IA et pourrait servir de base afin de développer de nouveaux outils s’appliquant aux autres formes de discriminations systémiques.

 

Quels sont les contrôles/tests possibles ? 

QUESTION REPONSE
Doit-on normer/labelliser les tests pour être sûr de la qualité des tests ?

 

Les labels IA proposent des procédures de tests des données de sortie à partir de données d’entrée identifiées

 

Les chartes de bonne conduite sont-elles suffisantes ? aller plus loin ?

 

Les chartes de bonne conduite permettent un engagement mais ne permettent pas ensuite l’audit.

En même temps un cadre réglementaire risque de freiner l’innovation et le développement du numérique.

Des démarches de type labellisation sont plus adaptées car également moins coûteuses à la mise en place.

Nous recommandons un cadre prévoyant des obligations de transparence en ce qui concerne les données utilisées et les objectifs fixés à l’algorithme ainsi qu’un droit de recours contre la décision prise. La création d’un tel cadre nécessite la mise en œuvre de bonnes pratiques dans les entreprises et administrations, l’usage de dispositifs juridiques existants et l’ajout au cas par cas de dispositions dans des législations sectorielles

 

Quel recours a-t-on si on se rend compte qu’un algorithme est sexiste ?

 

Aucune juridiction dans ce domaine et donc de fait nécessité de sensibiliser à la reproduction des biais dans les algorithmes depuis la conception quand les créateurs fixent les objectifs des algorithmes jusqu’à l’utilisation quand l’utilisateur teste les résultats à partir de jeux de données non genrés

Les lois contre les discriminations s’appliquent au numérique.

Quelles sont les actions de formation ?

QUESTION REPONSE
Quels sont les organismes qui dispensent des formations aux stéréotypes de genre ? Des cabinets de conseil en Ressources Humaines, des organismes de formation, des associations comme Femmes Egalité Emploi

 

Dans quelles écoles peut-on apprendre à coder ? A titre d’exemple : La Capsule, Le Wagon, Ecole 42, Simplon, Grande Ecole du Numérique, …
Faut-il des compétences en maths pour les métiers de l’IA ? La plupart des métiers du numérique ne demandent aucune compétence en Mathématique mais une formation appropriée comme les langages de programmation, les réseaux, la cybersécurité.

Data Scientist demande une formation mathématique pour appliquer des modèles mathématiques et statistiques dans les algorithmes

Quels sont les noms des métiers afférant aux data?

 

Plusieurs métiers liés aux data depuis la conception de bases de données jusqu’à l’analyse et la valorisation des données :

Data Engineer

Architecte Big Data

Administrateur Big data

Data Scientist

Data Analyst

Quel est le pourcentage d’étudiantes dans les filières Technologies d’information et de communication ?

 

En France 17% identique à la moyenne européenne
Quelle est le pourcentage des femmes dans les métiers du numérique dans les autres pays d’Europe et à l’international La moyenne européenne est de 17% et plus élevée que celle de la France (12%) grâce à des pays comme la Bulgarie, Roumanie

Aux USA identique à l’Europe

En Asie-Pacifique on tend vers la parité

 

Comment agir sur les données et les algorithmes ?

QUESTION REPONSE
Comment l’IA peut faire avancer l’égalité F/H ? Utiliser l’IA pour détecter et corriger les biais

Aller au-delà en fixant des critères d’égalité dans les algorithmes et dans les bases de données comme : obtenir 50 % de CV Femmes et 50 % de CV Hommes

Reproduction des biais : quid des biais cognitifs des codeurs ? Les développeurs peuvent ainsi parfois laisser des biais cognitifs troubler la façon dont ils conçoivent ou interprètent leurs modèles. Cela peut les amener à orienter des modèles selon leur vision du monde.
Existe-t-il des exemples de bases de données égalitaires ?

 

Il devrait y avoir des bases de données égalitaires dans tous les domaines de l’IA

Il y a par exemple des bases de données d’images accessible en opensource

Comment peut-on s’assurer que les algorithmes ne sont pas remplis de

biais sexistes par exemple dans les algorithmes de recrutement vis à vis des femmes et autres ?

A postériori en testant les résultats par rapport à un jeu de données en entrée et en vérifiant les bases de données sur lesquelles l’algorithme agit.