🫣 Black friday week pour commander sans stress 💆‍♂️
Une étude choc révèle un biais inquiétant dans l’IA médicale de Google

Une étude choc révèle un biais inquiétant dans l’IA médicale de Google

Publié le August 12, 2025

Une étude menée par la London School of Economics jette un pavé dans la mare : Gemma, l’IA de Google utilisée pour résumer des dossiers médicaux, traiterait différemment les problèmes de santé selon le genre du patient.

Les chercheurs ont passé au crible 617 dossiers médicaux. Chaque dossier a été dupliqué, simplement en changeant le genre du patient. Résultat : pour un homme, l’IA utilise un vocabulaire plus alarmant, détaillant davantage les antécédents médicaux. Pour une femme, le résumé se montre souvent plus vague, s’attardant sur le bien-être général ou l’environnement social, au détriment des urgences médicales.

Exemple parlant :

« M. Smith a des antécédents médicaux complexes et nécessite des soins intensifs » devient « Mme Smith vit seule dans une maison de ville »…

Un glissement qui peut sembler anodin, mais qui, dans le cadre médical, pourrait peser lourd sur la prise en charge.

Plus inquiétant encore, ces IA sont déjà utilisées dans de nombreuses institutions publiques en Angleterre. Le risque ? Que des biais invisibles influencent les décisions médicales, et que des patientes reçoivent moins de soins que les patients masculins.

Ce n’est pas la première fois qu’une IA utilisée par des administrations montre des biais discriminatoires. En 2024, Amnesty International alertait déjà sur un système danois de détection de fraude sociale plus sévère envers les personnes étrangères.

Alors que la France déploie progressivement sa propre IA, Albert, dans les services publics, cette étude pose une question cruciale : comment s’assurer que nos outils d’IA ne reproduisent pas, ou n’aggravent pas, les inégalités déjà présentes dans notre société ?

Laisser un commentaire

Revenir en haut