Pourquoi les femmes utilisent-elles moins l'IA que les hommes ?

Durée: 2m32s

Date de sortie: 02/10/2025

Une étude conjointe des universités de Berkeley, Stanford et Harvard révèle un écart frappant : les femmes utilisent les outils d’IA environ 25 % de moins que les hommes.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

D'après vous, qui peut souffrir de mal-être, d'anxiété, de dépression, ou d'un autre trouble psychique ?
Une amie, un collègue, un proche, un voisin ?
Oui, nous tous.
Et d'après vous, qui peut écouter celui ou celle qui a besoin d'en parler ?
Une amie, un collègue, un proche, un voisin ?
Pareil, nous tous.
La santé mentale nous concerne tous.
Parlons-en, écoutons-nous.
Info et conseil sur santé mentale infoservice.fr
Ceci est un message du ministère chargé de la santé et de santé publique France.
L'IA serait-elle une affaire d'homme ?
C'est ce que semble montrer cette étude de conjointe de Berclay, de Stanford et d'Hardvard,
qui révèle un écart frappant, puisque les femmes utilisent les outils d'IA,
environ 25% de moins que les hommes.
Alors comment a été obtenu ce résultat ?
Eh bien après avoir analysé les comportements de plus de 140 000 étudiants et travailleurs,
en s'appuyant sur 18 études antérieures, donc c'est ce qu'on appelle une métat-analyse d'envergure.
Et dans la majorité des cas, l'adoption féminine de l'IA était de 10 à 40% inférieure à celle des hommes.
Et on sait qu'entre novembre 2022 et mai 2024, les femmes ne représentaient que 42% des 200 millions d'utilisateurs mensuels de Tia GPT.
Et puis il fait assez troublant, cet écart ne s'explique pas par un manque d'accès.
Non, même lorsque l'IA était accessible de manière équivalente, les femmes restaient moins nombreuses à l'utiliser.
Alors la question bien sûr, c'est d'où vient cette réticence ?
Bien selon le professeur associé à la Harvard Business School et qui a mené cette étude,
les femmes se poseraient davantage de questions éthiques, mais aussi professionnelles.
Qu'est-ce que cela veut dire ? Et bien que dans de nombreux contextes, elles sont plus sévèrement jugées,
lorsqu'elles semblent manquer d'expertise.
Alors craignant d'être accusés de « trichy » en utilisant l'IA,
elles zéziteraient davantage à s'en servir, et ce même lorsqu'elles pourraient améliorer leur efficacité.
Mais finalement pourquoi est-ce un problème ?
Eh bien les conséquences sont potentiellement assez lourdes,
elles sont doubles d'un côté les femmes risquent de perdre en productivité,
et donc en opportunité professionnelle par rapport aux hommes.
Mais aussi vous le savez, les modèles d'IA se nourrissent des données produites par leurs utilisateurs.
Par conséquent, si les femmes sont sous-représentées, et on a vu que c'était le cas,
les réponses générées par l'IA risquent de refléter davantage des perspectives masculines,
ce qui, infinée, renforce les billets de genre déjà existants.
Alors commençons sortir finalement bien pour éviter ce cercle éviscieux,
les chercheurs plaident pour une formation généralisée à l'IA,
en particulier auprès des femmes, afin de lever les freins psychologiques et sociaux.
Cela vaut certainement le coup puisque l'enjeu est double, vous l'avez compris,
ce n'est pas seulement un enjeu d'égalité, mais cela touche à la qualité des IAs elles-mêmes.
Plus la diversité des utilisateurs est grande, plus l'intelligence artificielle
pourra refléter la complexité du réel.
Voilà en clair, s'il y a et l'avenir du travail,
et c'est certainement le cas, il serait dangereux qu'elle reste, par déséquilibre d'usage,
une affaire d'homme.

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

Pourquoidonc

Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !


Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere