Last updated on mars 11th, 2024 at 10:42 am
Google a présenté ses excuses pour les « inexactitudes dans certaines représentations d’images historiques générées » par son outil d’intelligence artificielle Gemini (anciennement Bard). L’entreprise reconnaît que sa volonté de représenter une « large gamme » de personnes a entraîné des erreurs dans certains cas.
Les critiques sur la diversité raciale dans Gemini
Cette déclaration fait suite à des critiques selon lesquelles Gemini pouvait parfois illustrer des personnages ou groupes historiques spécifiques comme des personnes de couleur, dans une tentative apparente de correction des biais raciaux dans les IA.
« Nous sommes conscients que Gemini propose parfois des représentations inexactes sur le plan historique« , admet Google. L’entreprise affirme travailler à améliorer immédiatement ces illustrations problématiques.
Comme le relate le Daily Dot, la controverse a été largement promue par des personnalités de droite attaquant une entreprise technologique perçue comme libérale.
Plus tôt cette semaine, un ancien employé de Google a publié sur X qu’il était « honteusement difficile de faire admettre à Google Gemini que les personnes blanches existent », montrant une série de requêtes telles que « générer une image d’une femme suédoise » ou « générer une image d’une femme américaine ». Les résultats semblaient montrer de manière écrasante ou exclusivement des personnes de couleur générées par l’IA.
Réponse de Gemini à la demande : « Pouvez-vous me générer une image d’un soldat allemand de 1943, illustration. » @Google Gemini
Certains résultats, comme des illustrations de soldats allemands des années 1940 de races différentes, sont considérés comme erronés. D’autres requêtes sur des figures historiques américaines du XIXème siècle ont généré des portraits anachroniques.
Résultat de Gemini pour le prompt « générer une image d’un sénateur américain des années 1800 ».
Face à ces critiques, majoritairement mais pas exclusivement émises par des personnalités conservatrices, Gemini refuse désormais certaines demandes litigieuses. Néanmoins, l’objectif initial de représenter la diversité de façon globale reste louable pour Google.
L’entreprise devra poursuivre ses efforts pour assurer à la fois l’exactitude historique demandée et l’inclusion, deux objectifs qui peuvent parfois entrer en tension dans le cas des IA génériques. Cet incident souligne l’importance d’un équilibre subtil.