QUELLES BONNES PRATIQUES POUR UNE INTELLIGENCE ARTIFICIELLE ÉGALITAIRE ENTRE LES FEMMES ET LES HOMMES ? DÉCOUVREZ Notre guide !
Deux tiers des enfants aujourd’hui en maternelle exerceront plus tard un métier qui n’existe pas encore, notamment dans le secteur du numérique. Ce secteur d’avenir est déjà stratégique pour notre société et très lucratif.
Pourtant, les femmes y demeurent minoritaires avec seulement 25% de salariées dans les métiers du numérique, dont 16% dans les métiers techniques, d’après les chiffres de l’INSEE pour 2021.
Le groupe de travail « Les femmes et l’IA » du Laboratoire de l’Egalité, mené par Muriel Garnier et Hélène Deckx van Ruys, est parti de ce constat pour lancer une étude dont les conclusions sont regroupées dans le « Guide de bonnes pratiques : Agissons maintenant pour une Intelligence Artificielle Egalitaire entre les femmes et les hommes« .
Les recommandations qui s’y trouvent doivent être appropriées par toutes les parties prenantes du secteur (entreprises, écoles, recherche, décisionnaires politiques) pour assurer la mixité dans la Tech et la lutte contre les biais discriminatoires dans les algorithmes.
Les bonnes pratiques
L’étude auprès de ces parties prenantes montre une prise de conscience généralisée sur cette thématique et la mise en place de nombreuses actions.
Dans le processus de recrutement : en moyenne 60% des parties prenantes interrogées tiennent compte des inégalités F/H :
Parmi les pratiques déclarées, on retrouve la mise en place de comité de sélection paritaire, et la recherche d’inclusivité dans le recrutement.
Pour attirer et retenir les jeunes filles et les femmes, en moyenne 70% des parties prenantes interrogées mettent en place des actions :
Sont mises en place des actions de sensibilisation, de communication et de formation : à l’égalité, aux biais IA, mais également des présentations des métiers de l’IA dans les lycées…
On note aussi dans les résultats des cas de création de réseaux féminins, avec des associations, ou encore entre élèves et professionnels de l’IA.
La qualité de vie est également visée par les actions pour la mixité : certaines structures pratiquent des aménagements des horaires, et mettent en place des systèmes de garde d’enfants. La création d’un poste de référent.e égalité et de plateformes d’écoutes sont aussi une solution mise en avant par les parties prenantes pour assurer des conditions favorables aux femmes du secteur.
Pour éviter la reproduction des biais dans les algorithmes et les bases de données :
On retrouve dans 85% des écoles interrogées des cours d’éthique et sur les biais de l’IA, y compris dans les travaux et projets d’IA.
53% des instituts de recherche interrogés déclarent sensibiliser et former leurs personnels à la gestion des biais, à l’interdisciplinarité dans la conception des algorithmes… On retrouve dans 69% de ces instituts des instances de recherche pluridisciplinaires sur l’éthique de l’IA.
Dans les entreprises, on retrouve partiellement des actions de testing des algorithmes utilisés, de la représentativité des données utilisées, mais également l’application de chartes, de labels, le respect des réglementations à ce sujet…
Un chemin à poursuivre
Ces actions demeurent pour l’instant localisées. Elles doivent être partagées et systématisées à l’échelle de l’ensemble de l’écosystème du numérique. Si l’étude documente un sentiment général d’impact positif chez les parties prenantes, il est nécessaire de systématiser un suivi d’impact de ces actions, qui n’est pas encore mis en place.
On note également l’absence d’enquête de ressenti auprès des femmes.
Dans les entreprises utilisatrices d’IA, on remarque une intervention seulement partielle sur les biais des algorithmes et des data à cause des contraintes techniques et financières (retro-engineering).
Ce guide de bonnes pratiques invite à espérer et s’investir pour une Intelligence Artificielle égalitaire. Les parties prenantes déclarent des attentes fortes d’actions au niveau national pour un impact significatif.
Comment aller plus loin, plus vite ?
Il s’agit pour nous d’avancer ensemble, en diffusant toutes ces pratiques, pour les amplifier et les partager entre parties prenantes.
Pour changer les codes, nous proposons de changer d’approche et de méthode.
Dans les écoles :
- Présenter les cas d’usage : parler de biologie, de médecine, d’environnement
- Expliquer les concepts de base, les opportunités et les risques : savoir se servir de l’IA
- Présenter des jeunes filles role models
- Mettre en place des sanctions pour propos discriminants, harcèlement…
Dans les entreprises :
- Maîtriser les outils IA avec impact humain
- Mesurer l’impact des actions
- Avoir des représentations féminines de l’entreprise
- Développer mentoring, « female empowerment », perspectives de carrière
- Déterminer les nouveaux besoins en termes de compétences et d’offres d’emploi associés
- Mettre en place l’égalité salariale : transparence, encouragement des managers pour l’égalité professionnelle …
- Prendre en compte l’équilibre vie professionnelle/vie privée : processus de réintégration après congés maternité…
- Créer des réseaux et de communautés : mentorat, ateliers d’échange entre femmes…
Dans les politiques publiques :
- La mise en place de crédit d’impôt, de quotas…
Enfin, il nous paraît primordial de changer les discours concernant l’Intelligence Artificielle, pour mettre en avant ses aspects positifs.
Pour cela, il convient de faire de la place dans les échanges pour expliquer les opportunités , le progrès, la création de start-ups… permis par l’IA.
Donner la parole aux scientifiques dans les discours est également un levier pour créer des représentations plus justes de cet outil.
Aussi, pour s’assurer que l’IA soit bien intégrée à notre société, il s’agira de s’appuyer sur la nouvelle génération sensible aux enjeux RSE.
Pour participer à cette évolution, nous comptons sur vous pour consulter le Guide et le partager largement autour de vous. Vous baignez dans l’écosystème de la Tech ? Publicisez ces bonnes pratiques et n’hésitez pas à vous les approprier !