Le Labo AI
L'IA avoue : elle galère à créer des gens moches (et c'est un vrai problème)

L'IA avoue : elle galère à créer des gens moches (et c'est un vrai problème)

Un documentaire sur Dinan révèle un biais fascinant : l'IA préfère générer des visages parfaits. Décryptage d'un bug qui en dit long.

Adapter le niveau de lecture

6 min3 niveaux disponibles

L'IA avoue : elle galère à créer des gens moches (et c'est un vrai problème)

Imaginez qu'on vous demande de dessiner quelqu'un de « normal ». Pas un mannequin. Pas une star de cinéma. Juste... quelqu'un. Un visage qu'on croise dans le métro, avec ses petites imperfections, son nez un peu de travers, ses rides d'expression, son grain de beauté mal placé. Facile, non ?

Eh bien pour l'intelligence artificielle, c'est une galère monstre.

C'est ce que révèle un documentaire diffusé sur la ville de Dinan, en Bretagne, rapporté par Ouest-France. Le constat est simple et troublant : quand on demande à une IA de générer des visages humains, elle pond systématiquement des beautés de catalogue. Des peaux lisses comme du plastique. Des traits harmonieux à en pleurer. Des sourires dignes d'une pub pour dentifrice. Bref, tout sauf la vraie vie.

Pourquoi l'IA est obsédée par la beauté

La raison ? Elle est bête comme chou, mais révélatrice.

Les intelligences artificielles qui génèrent des images — qu'on appelle des « modèles de diffusion » pour faire classe — apprennent en observant des millions de photos trouvées sur Internet. Et devinez quoi ? Internet regorge de visages retouchés, filtrés, optimisés pour Instagram. Les photos de mannequins pro. Les portraits de stars. Les selfies passés par quinze filtres beauté.

Résultat : l'IA croit sincèrement que c'est ça, un visage humain « normal ». Elle a appris sur un dataset complètement biaisé vers la perfection esthétique. C'est comme si vous appreniez le français uniquement en lisant des poèmes de Baudelaire : techniquement, vous parleriez français, mais bonne chance pour commander une pizza.

Ce biais n'est pas qu'une anecdote rigolote. Il pose des questions sérieuses sur la représentation, la diversité, et ce que l'IA considère comme « acceptable ». Comme l'explique notre article sur les deepfakes politiques, ces systèmes peuvent amplifier des stéréotypes dangereux quand on ne fait pas attention.

Le documentaire de Dinan : un miroir local d'un problème mondial

Le documentaire sur Dinan utilise justement l'IA pour illustrer son propos historique sur la ville. Sauf que... les visages générés ne ressemblent à rien de ce qu'on croise dans les rues bretonnes. Trop lisses. Trop parfaits. Trop génériques.

C'est gênant pour un documentaire qui veut raconter l'histoire d'une ville et de ses habitants. Mais c'est surtout symptomatique d'un problème beaucoup plus large : l'IA reflète nos propres obsessions collectives. Notre fixation sur la jeunesse éternelle. Notre culte de la symétrie faciale. Notre industrie de la retouche photo.

On ne va pas se mentir : quand une technologie ne sait pas représenter la diversité réelle des visages humains, c'est problématique. Ça veut dire que tous les outils qui en dépendent — des applications photo aux jeux vidéo, des films aux publicités — vont reproduire le même modèle étriqué de la beauté.

Comment en est-on arrivé là ?

Pour comprendre, il faut faire un petit détour technique (promis, ça reste digeste).

Les IA qui génèrent des images fonctionnent comme ça : on leur montre des millions d'exemples avec des légendes. Genre « photo d'une femme souriante » ou « portrait d'un homme âgé ». L'IA apprend des associations. Elle comprend qu'un « portrait » ressemble généralement à ceci ou cela.

Le hic ? Les bases de données d'entraînement surreprésentent massivement certains types de visages. Les photos pro sont plus nombreuses. Les images de personnes « attractives » sont plus likées, donc plus visibles, donc plus aspirées par les robots qui collectent les données.

Ajoutez à ça que beaucoup de ces datasets viennent de sites occidentaux, avec tous les biais culturels que ça implique sur les canons de beauté. Et vous obtenez une IA qui a une vision très, très restreinte de ce qu'est un visage « normal ».

C'est le même genre de biais qu'on retrouve quand on demande à une IA de générer « un PDG » et qu'elle pond un homme blanc de 50 ans en costume. L'IA ne fait que reproduire ce qu'on lui a montré, en amplifiant parfois les travers.

Les tentatives de correction (et leurs limites)

Certaines boîtes essaient de corriger le tir. OpenAI, avec DALL-E, a mis en place des systèmes pour diversifier automatiquement les générations quand vous demandez « une personne ». Si vous tapez « un avocat », l'IA va volontairement alterner entre différents genres, âges, origines ethniques.

C'est bien intentionné. Mais ça crée d'autres bizarreries. Genre si vous demandez « les pères fondateurs américains », l'IA pourrait vous générer des femmes noires en perruque poudrée pour respecter ses quotas de diversité. Historiquement... c'est compliqué.

Le vrai problème, c'est qu'on essaie de mettre des rustines sur un système fondamentalement biaisé à la base. Tant qu'on n'entraîne pas ces IA sur des datasets réellement représentatifs de la diversité humaine — avec des gens « normaux », pas photoshoppés, de tous âges, toutes morphologies, toutes origines — on aura toujours ce problème.

Ce que ça change pour vous (et pour tous)

Vous vous dites peut-être : « Bon, ok, l'IA fait de beaux visages, c'est grave docteur ? »

Oui et non.

Non, parce que franchement, si vous utilisez une IA pour illustrer un article de blog ou créer un avatar fantasy, le fait que le résultat soit « trop beau » n'est pas la fin du monde. Vous voulez un visage générique ? L'IA vous en pond des tonnes.

Oui, parce que ces outils deviennent omniprésents. Ils façonnent notre environnement visuel. Les pubs qu'on voit. Les personnages de jeux vidéo. Les illustrations de presse. Si tous ces visuels montrent le même type de beauté normée et irréelle, on renforce collectivement des standards inatteignables.

C'est déjà assez problématique avec Photoshop et Instagram. Avec l'IA générative qui peut créer des milliers d'images parfaites en quelques secondes, le phénomène risque de s'amplifier drastiquement.

Sans compter les usages plus sensibles : et si demain, les systèmes de reconnaissance faciale sont entraînés sur ces mêmes datasets biaisés ? Et s'ils détectent moins bien les visages qui ne correspondent pas au « standard » appris ? On ouvre la porte à des discriminations algorithmiques bien réelles.

Et maintenant ?

La bonne nouvelle, c'est que le problème est identifié. Des chercheurs travaillent sur des datasets plus équilibrés. Des initiatives open source tentent de créer des bases d'images plus représentatives. Certaines entreprises commencent à auditer leurs modèles pour mesurer ces biais.

La moins bonne nouvelle ? C'est un chantier titanesque. Refaire un dataset d'entraînement complet, ça coûte des millions. Et surtout, ça nécessite de répondre à des questions difficiles : c'est quoi, exactement, un dataset « représentatif » ? Représentatif de quoi ? De qui ? Selon quels critères ?

En attendant, si vous utilisez des outils de génération d'images, gardez ça en tête. Vous demandez « une personne » et vous obtenez un top model ? Normal. L'IA fait ce qu'elle peut avec ce qu'on lui a appris.

Le jour où elle vous générera spontanément un type avec un double menton, des poches sous les yeux et une calvitie naissante — bref, quelqu'un qu'on pourrait effectivement croiser à Dinan ou ailleurs — là, on saura qu'on a progressé.

Articles liés