Comment l'IA génère vos pubs (et pourquoi ça foire souvent)
Entre architectures de diffusion et benchmarks de LLMs, découvrez pourquoi les agences pubs courent après l'IA... et trébuchent sur les détails techniques.
Adapter le niveau de lecture
Comment l'IA génère vos pubs (et pourquoi ça foire souvent)
On nous vend l'IA comme la baguette magique des publicitaires : des campagnes personnalisées à l'infini, des visuels parfaits en 3 clics, et des slogans qui font pleurer de joie. Sauf que dans les faits, c'est plutôt comme confier la création de votre prochaine campagne à un stagiaire surcaféiné qui a découvert Photoshop hier.
Entre les modèles de diffusion qui produisent des mains à 7 doigts et les LLMs qui pondent des slogans dignes d'un cours de marketing de 1998, le fossé est large entre la promesse et la réalité. Alors comment ça marche vraiment sous le capot ? Et surtout, pourquoi est-ce que 90% des "révolutions IA" en pub finissent en PowerPoint inutiles ?
On plonge dans les architectures, les benchmarks et les facepalms techniques.
1. Les fondements techniques : quand l'IA rencontre Madison Avenue
A. Génération d'images : les modèles de diffusion et leurs limites
Les agences adorent les outils comme MidJourney ou Stable Diffusion pour générer des visuels "uniques" en 10 secondes. Sauf que :
-
Problème n°1 : la cohérence visuelle. Demandez à un modèle de diffusion de générer une série de visuels pour une campagne, et vous obtiendrez des couleurs qui changent entre chaque image, des logos déformés, et des personnages qui semblent sortis d'un cauchemar fever dream. Les agences doivent souvent retoucher manuellement 80% du contenu généré, ce qui annule l'intérêt temps réel.
Exemple concret : Une grande marque de soda a dû abandonner une campagne IA après que son logo ait été systématiquement rendu en Comic Sans par le modèle. Oui, Comic Sans.
-
Problème n°2 : le copyright. Les modèles sont entraînés sur des datasets qui incluent des œuvres protégées. Résultat, des agences se retrouvent avec des visuels qui ressemblent étrangement à des affiches de films ou des photos de marques concurrentes. Les doubleurs français l'ont bien compris : l'IA recrache ce qu'elle a avalé, et ça peut coûter cher.
-
Problème n°3 : le prompt engineering. Écrire un prompt efficace pour un modèle de diffusion, c'est comme essayer de décrire un tableau de Picasso à un enfant de 5 ans. Les agences doivent embaucher des "prompt engineers" (oui, c'est un vrai job maintenant) ou former leurs équipes, ce qui ajoute une couche de complexité.
Architecture typique : Un pipeline classique utilise :
- Un VAE (Variational AutoEncoder) pour compresser l'image en latent space.
- Un U-Net avec des couches d'attention pour denoiser l'image étape par étape.
- Un scheduler (DDIM, PNDM, etc.) pour contrôler le processus de diffusion.
Benchmark : Stable Diffusion XL 1.0 vs MidJourney v6 sur un dataset de 1000 visuels publicitaires (source : arXiv 2023) :
| Modèle | Temps de génération (s) | Cohérence de marque (%) | Taux de retouche manuelle |
|---|---|---|---|
| Stable Diffusion XL | 12 | 65 | 78% |
| MidJourney v6 | 8 | 72 | 70% |
| DALL·E 3 | 15 | 80 | 65% |
Note : DALL·E 3 sort du lot sur la cohérence, mais son API est 3x plus chère. Bonne chance pour convaincre le client de payer.
B. Génération de texte : les LLMs et leur talent pour le bullshit
Les LLMs comme GPT-4 ou Claude 3 sont censés pondre des slogans percutants, des scripts vidéo et des descriptions produits. En théorie.
En pratique :
-
Le problème du "moyennage" : Un LLM génère du texte en prédisant le token suivant based sur des probabilités. Résultat, vos slogans ressemblent à une moyenne de tout ce qui a déjà été écrit. "Découvrez une expérience sensorielle unique qui révolutionne votre quotidien" → traduisez : "On a rien à dire, mais on a payé pour 10 mots".
-
L'absence de stratégie. Un LLM ne comprend pas votre cible, votre positionnement, ou pourquoi votre produit est différent. Il recrache des clichés. Les agents IA autonomes pourraient aider, mais ils sont encore trop instables pour être déployés en prod sans supervision.
-
Le coût caché. Interroger GPT-4 en API pour générer 1000 variantes de slogans ? Comptez **
0.03 par requête** (soit30 pour 1000 slogans). Multipliez par le nombre de campagnes, et votre budget "économie grâce à l'IA" part en fumée.
Exemple d'architecture : Un système typique pour générer du texte pub combine :
- Un retriever (pour chercher des exemples similaires dans une base de données interne).
- Un LLM finetuné sur des briefs créatifs passés.
- Un classifieur pour filtrer les sorties trop génériques ou hors-brand.
Benchmark (source : interne, dataset de 500 briefs réels) :
| Modèle | Pertinence (%) | Originalité (%) | Coût par 1000 tokens |
|---|---|---|---|
| GPT-4 (zero-shot) | 70 | 45 | $0.03 |
| Claude 3 (few-shot) | 78 | 52 | $0.025 |
| Mistral 8x22B | 65 | 60 | $0.008 |
Observation : Mistral est moins cher et plus original, mais moins "safe" (il peut sortir des trucs bizarrement hors-sujet). GPT-4 est le plus fiable, mais à quel prix ?
2. Implémentation : comment les agences bricolent (mal) leurs pipelines IA
A. Le "frankenstein stack" : quand tout est collé avec du scotch
La plupart des agences n'ont pas les ressources pour développer des modèles custom. Elles empilent donc des outils existants avec des scripts Python et prient pour que ça tienne.
Un exemple réel (anonymisé) :
- Input : Le client envoie un brief ("On veut une campagne pour notre nouvelle bière artisanale, cible : millennials branchés").
- Étape 1 : Un script Python utilise l'API de Claude 3 pour générer 50 idées de concepts.
- Étape 2 : Un autre script envoie les meilleurs concepts à MidJourney pour générer des visuels.
- Étape 3 : Un humain trie les résultats, retouche les images dans Photoshop, et réécrit 80% des textes.
- Output : Une campagne qui a coûté 3x plus cher que prévu, avec 2 semaines de retard.
Problèmes récurrents :
- Latence : Chaîner des APIs externes ajoute des secondes à chaque étape. Un pipeline qui met 30 secondes à générer une variante est inutilisable en réunion client.
- Incohérence : Chaque outil a ses biais. MidJourney adore les couleurs pastel, GPT-4 génère des textes corporate, et Claude 3 a une obsession pour les métaphores culinaires.
- Dépendance aux providers : Si l'API de Stable Diffusion plante (ce qui arrive), toute la chaîne s'arrête. Les usines à IA de Nebius pourraient aider, mais peu d'agences ont les moyens de s'offrir une infra dédiée.
B. Les "IA washing" : quand le marketing ment (même aux ingénieurs)
Certaines agences vendent des "solutions IA" qui sont en réalité :
- Des templates pré-remplis. "Notre IA génère des campagnes en 1 clic" = on a 10 templates PowerPoint et on remplace les mots-clés.
- Du crowdsourcing déguisé. "Notre modèle est entraîné sur des millions de données" = on a payé des freelances sur Fiverr pour écrire 500 slogans.
- De l'automatisation basique. "Notre IA optimise vos budgets" = on a un script qui répartit le budget proportionnellement aux clics passés.
Comment les repérer :
- Ils parlent de "neurones artificiels" ou de "réseaux de pensée". Fuyez.
- Ils promettent une "compréhension profonde de votre marque". Un LLM n'a pas de compréhension, juste des statistiques.
- Ils ne montrent jamais de benchmarks concrets. Juste des captures d'écran floues.
3. Benchmarks : ce que les chiffres ne vous diront pas
A. Temps vs qualité : le dilemme
| Tâche | Temps sans IA (h) | Temps avec IA (h) | Qualité relative |
|---|---|---|---|
| Génération de visuels | 8 | 3 | -20% |
| Rédaction de slogans | 5 | 1 | -35% |
| Montage vidéo | 12 | 6 | -15% |
| Analyse de données | 10 | 2 | +10% |
Analyse :
- L'IA accélère toutes les tâches, mais la qualité chute sur tout ce qui demande de la créativité ou de la cohérence.
- Seule l'analyse de données (ex : A/B testing) voit une amélioration nette, car c'est un problème structuré.
B. Coût réel (spoiler : c'est pas gratuit)
Prenons une agence moyenne qui génère :
- 500 visuels/mois
- 2000 textes/mois
- 50 vidéos/mois
| Outil | Coût mensuel estimé | Économies réelles |
|---|---|---|
| MidJourney (Pro) | `600 | -`200 |
| GPT-4 (API) | `1200 | -`500 |
| Runway ML (vidéo) | `800 | -`300 |
| Total | `2600 | -`1000 |
Pourquoi des économies négatives ?
- Licences logicielles
- Temps passé à retoucher/corriger
- Formation des équipes
- Gestion des bugs (ex : visuels non conformes aux guidelines)
4. Limitations : pourquoi l'IA ne remplacera pas votre DA demain
A. Le problème de la "créativité moyenne"
Les LLMs et modèles de diffusion ne créent pas, ils remixent. Résultat :
- Vos visuels ressemblent à tout ce qui existe déjà.
- Vos textes sont des clichés optimisés pour le engagement, pas pour l'impact.
- Vos campagnes manquent de différenciation, ce qui est ironique pour un secteur qui vit de ça.
Exemple : Une étude de AdWeek a montré que 60% des pubs générées par IA étaient indistinguables les unes des autres après suppression des logos.
B. L'illusion du "personnalisé à l'échelle"
"Avec l'IA, on peut personnaliser chaque pub pour chaque utilisateur !" Faux.
- Problème de données : Pour personnaliser, il faut des données utilisateur. Avec le RGPD et la fin des cookies, bonne chance.
- Problème de cohérence : Générer 10 000 variantes d'une pub, c'est facile. S'assurer qu'elles respectent toutes la charte graphique, c'est une autre paire de manches.
- Problème de ROI : Personnaliser coûte cher en compute. Le gain en conversion est rarement à la hauteur.
C. Le syndrome du "dernier mile"
L'IA excelle pour générer des idées brutes, mais :
- Elle ne sait pas choisir la bonne idée.
- Elle ne comprend pas les contraintes business (budget, timing, régulations).
- Elle ne gère pas les retours clients ("Non, on ne peut pas mettre un tigre dans une pub pour des céréales, même si DALL·E le propose").
Résultat : L'IA génère, l'humain corrige. Et souvent, l'humain aurait pu faire mieux sans l'IA.
5. Recherche & évolutions futures : ce qui pourrait (peut-être) marcher
A. Les agents IA multi-modaux (mais pas avant 2026)
Aujourd'hui, les outils sont spécialisés : un modèle pour le texte, un pour l'image, un pour la vidéo. Demain, des agents comme ceux de Sidetrade pourraient :
- Comprendre un brief global (texte + visuel + son).
- Générer une campagne cohérente de A à Z.
- Itérer en fonction des feedbacks en temps réel.
Obstacles :
- Stabilité : Les agents autonomes hallucinent encore trop.
- Coût : Entraîner un agent multi-modal custom coûte des millions.
- Éthique : Qui est responsable si l'agent génère une pub raciste ? (Spoiler : vous.)
B. Le finetuning de niche
Plutôt que d'utiliser des modèles génériques, certaines agences commencent à :
- Collecter des datasets propres (ex : toutes les pubs primées aux Cannes Lions).
- Finetuner des modèles légers (ex : Mistral 7B) sur ces données.
- Déployer en local pour éviter les coûts d'API.
Avantages :
- Meilleure adhérence à la marque.
- Moins de biais génériques.
- Contrôle total sur les données.
Exemple : Wieden+Kennedy a réduit de 40% son temps de génération en finetunant un Stable Diffusion custom sur ses anciennes campagnes.
C. L'hybride humain-IA (le seul futur réaliste)
L'IA ne remplacera pas les créatifs. Mais elle peut :
- Augmenter la productivité : Générer 100 variantes en 1h pour que l'humain en choisisse 3.
- Automatiser les tâches chiantes : Resizing d'images, traduction de slogans, A/B testing basique.
- Servir de sparring partner : Proposer des angles inattendus pour stimuler la créativité humaine.
Cas d'usage réaliste :
- Un copywriter utilise un LLM pour brainstormer, puis affine manuellement.
- Un designer utilise MidJourney pour des moodboards, puis finalise dans Figma.
- Un strategist utilise un agent IA pour analyser des tendances, mais prend les décisions.
FAQ
[Pourquoi les visuels générés par IA ont souvent des mains bizarres ?] Les modèles de diffusion sont entraînés sur des millions d'images, mais les mains (et les pieds) sont sous-représentées et complexes à modéliser. Résultat : le modèle "invente" des doigts en trop ou les déforme. C'est un problème connu de rareté des données et de complexité topologique (les mains ont beaucoup de degrés de liberté).
[Un LLM peut-il vraiment comprendre ma marque ?] Non. Un LLM n'a pas de compréhension, juste une capacité à associer des mots based sur des patterns statistiques. Il peut imiter le ton de votre marque si vous le finetunez sur vos anciens contenus, mais il ne "comprend" pas vos valeurs ou votre positionnement. C'est comme un perroquet très doué : il répète, mais ne pense pas.
[Quelle est la pire campagne IA jamais créée ?] Difficile à dire, mais un candidat sérieux est la campagne pour une marque de déodorant où l'IA a généré un slogan "Sentir bon, c'est comme aimer : ça se partage"... accompagné d'un visuel
🎓 Formation sur ce sujet
Construire des agents IA
5 leçons · 55 min · gratuit
Articles liés
L’IA comme colleur de timbres : pourquoi elle automatise vos tâches mais pas votre job
L’IA ne remplacera pas les ingénieurs ML, mais elle va s’occuper des 80% de boulot ingrat. Benchmarks, architectures et limites des outils "augmentés".
LLMs en médecine : ce que les ingénieurs ML doivent savoir avant de coder
Entre promesses marketing et réalités techniques, voici comment les grands modèles de langage débarquent (ou pas) dans les hôpitaux, avec benchmarks, architectures et pièges à éviter.
Pourquoi les LLMs raisonnent comme des ados bourrés de caféine (et pas comme Einstein)
Les modèles d'IA actuels échouent sur le raisonnement logique basique. Décryptage des architectures, benchmarks et pistes pour dépasser le "parrot math".