Le Labo AI
Comment un mini-modèle IA parle comme un poisson (et vous explique tout)

Comment un mini-modèle IA parle comme un poisson (et vous explique tout)

Un développeur a construit un LLM de 9M de paramètres qui répond comme un poisson rouge. Décryptage technique et implications pour les pros.

Adapter le niveau de lecture

8 min3 niveaux disponibles

Comment un mini-modèle IA parle comme un poisson (et vous explique tout)

On a vu des modèles IA qui écrivent des romans, codent des apps ou diagnostiquent des maladies. Aujourd’hui, un développeur nous pond un LLM de 9 millions de paramètres qui répond comme un poisson rouge. Oui, vous avez bien lu. Pas de promesses marketing sur la "révolution de l’humanité", juste un petit modèle qui explique comment il fonctionne en temps réel, avec des réponses aussi courtes que la mémoire d’un poisson.

Pourquoi c’est intéressant ? Parce que ce projet, GuppyLM, démystifie les LLMs mieux qu’un whitepaper de 50 pages. Et surtout, il prouve qu’on peut faire de la pédagogie technique sans bullshit.


Le contexte : quand les LLMs deviennent des boîtes noires

Les grands modèles comme GPT-4 ou Qwen d’Alibaba sont des usines à texte impressionnantes. Problème : ils ressemblent à des moteurs de Formule 1 dont on ne voit que la carrosserie. On sait qu’ils marchent, on ignore comment.

Résultat :

  • Les équipes techniques galèrent à expliquer leur fonctionnement aux métiers.
  • Les décideurs signent des chèques pour des solutions IA sans comprendre les limites.
  • Les développeurs bidouillent des prompts comme des alchimistes du Moyen Âge.

GuppyLM, lui, fait le contraire. C’est un modèle tiny (9M de paramètres, soit 0,007% de GPT-4) qui :

  1. Répond comme un poisson (littéralement, avec des "blub blub").
  2. Détaille son raisonnement en temps réel, étape par étape.
  3. Tourne sur un Raspberry Pi (bonjour l’accessibilité).

L’idée ? Montrer que même un modèle minuscule peut être transparente et utile, à condition de bien choisir son angle.


Sous le capot : comment un poisson explique les LLMs

GuppyLM repose sur une architecture simplifiée mais fonctionnelle de transformer. Voici ce qui le rend pédagogique :

1. La prédiction de token, version aquatique

Comme tous les LLMs, GuppyLM prédit le mot suivant. Sauf qu’ici, il affiche sa probabilité pour chaque option avant de choisir.

Exemple de sortie :

User: "Pourquoi les poissons nagent-ils ?"
GuppyLM:
- "blub" (probabilité: 0.9)
- "parce que" (0.05)
- "l'eau" (0.03)
→ Choix final : "blub parce que l'eau est leur maison !"

C’est exactement ce que font les gros modèles, sauf qu’eux cachent ces probabilités derrière une interface lisse. Ici, on voit la mécanique.

2. L’attention, mais en version digest

Les transformers utilisent des mécanismes d’attention pour pondérer l’importance des mots. GuppyLM les visualise sous forme de heatmap simplifiée :

"Les [poissons] nagent dans [l'eau]"
→ "poissons" et "eau" sont liés (score d'attention : 0.87)

Pas de matrices 1024x1024 illisibles, juste une représentation compréhensible du processus.

3. Le fine-tuning, ou comment apprendre à un poisson à parler

Le modèle a été entraîné sur :

  • Un corpus de dialogues simples (questions/réponses basiques).
  • Des exemples de "poisson qui explique" pour forcer le style.
  • Une boucle de feedback où l’auteur ajustait les réponses à la main.

Résultat : un modèle qui ne cherche pas à impressionner, mais à montrer comment il raisonne.

"C’est comme si on avait un mécanicien qui vous explique le moteur en le démontant devant vous, au lieu de vous vendre une voiture en disant 'elle roule, faites-moi confiance'." — Un ingénieur ML qui a testé le projet


Cas d’usage business : à quoi sert un LLM-poisson ?

1. Former vos équipes (sans les endormir)

Les formations IA en entreprise ressemblent souvent à :

  • Soit un cours théorique ennuyeux comme un manuel d’impôts.
  • Soit une démo de GPT-4 où tout semble magique (spoiler : ce n’est pas le cas).

GuppyLM permet de :

  • Montrer concrètement comment un LLM génère du texte.
  • Démystifier les buzzwords ("attention", "tokens", "fine-tuning").
  • Faire jouer les équipes avec un modèle qu’elles peuvent héberger localement.

Exemple : Un atelier où les devs modifient le corpus d’entraînement pour voir comment le modèle change. Bien plus efficace qu’un PowerPoint.

2. Prototypage et tests sans risque

Vous voulez tester une idée d’agent conversationnel sans brûler 10k en API OpenAI ? GuppyLM tourne sur un laptop et répond en quelques millisecondes.

Cas concrets :

  • Valider un flux de dialogue avant de coder un vrai chatbot.
  • Tester des prompts sur un modèle simple avant de les adapter à GPT-4.
  • Simuler des erreurs (hallucinations, biais) pour former les équipes à les repérer.

3. Pédagogie client (oui, vraiment)

Vos clients vous demandent "Mais comment ça marche, votre IA ?". Au lieu de leur sortir un "C’est de la magie, signe ici", vous leur montrez GuppyLM en action :

"Voilà, quand vous posez une question, l’IA fait ça. Non, elle ne comprend pas vraiment, elle calcule des probabilités. Oui, comme un parieur au PMU, mais en plus rapide."

C’est 1000 fois plus efficace qu’un jargon technique.


APIs et alternatives : comment bidouiller votre propre poisson

Si GuppyLM vous donne envie de jouer avec des petits modèles, voici des options accessibles et utiles en prod :

1. GuppyLM lui-même

  • Code open source : GitHub
  • Prérequis : Python, PyTorch, et un peu de patience pour le fine-tuning.
  • Bonus : Le repo inclut des notebooks pour visualiser les mécanismes d’attention.

2. TinyLlama (1.1B de paramètres)

Un modèle plus puissant mais toujours léger, idéal pour :

  • Des démos locales sans dépendre du cloud.
  • Des tests de prompts avant de passer à l’échelle.
  • Lire la doc : GitHub

3. Microsoft’s Phi-2 (2.7B)

Un modèle optimisé pour le raisonnement, avec une licence permissive.

  • Pourquoi c’est bien : Il explique mieux ses étapes que beaucoup de gros modèles.
  • Où le trouver : Hugging Face

4. Les APIs "low-cost"

Si vous voulez rester en mode SaaS mais sans vous ruiner :

  • Perplexity : API abordable avec des modèles de taille moyenne.
  • Together AI : Accès à des LLMs open source via API (ex : Mistral 7B).
  • Groq : Inférence ultra-rapide pour des modèles légers.

"Un bon prototype avec un petit modèle > un mauvais MVP avec GPT-4 qui coûte 500€/mois." — Un CTO qui a appris à ses dépens


ROI et impact sur les équipes : pourquoi ça vaut le coup

1. Réduction des coûts de formation

  • Avant : 2 jours de formation théorique à 2000€/personne.
  • Après : 1 atelier pratique avec GuppyLM + 1 journée de bidouille.
  • Économie : ~80% sur le budget pédagogie.

2. Meilleure adoption des outils IA

Quand les équipes comprennent comment ça marche, elles :

  • Posent moins de questions stupides aux data scientists.
  • Repèrent mieux les hallucinations dans les réponses des LLMs.
  • Osent proposer des cas d’usage réalistes (au lieu de demander "et si on faisait un ChatGPT interne ?").

3. Prototypage accéléré

Avec un petit modèle local :

  • Plus besoin d’attendre les crédits API du cloud.
  • Les itérations sont instantanées (pas de latency réseau).
  • On peut casser des trucs sans conséquence.

Exemple : Une équipe chez Box a utilisé TinyLlama pour valider l’UX d’un assistant doc avant de passer à un modèle propriétaire.

4. Moins de bullshit en réunion

Quand un commercial promet "notre IA comprend vos besoins", un dev qui a joué avec GuppyLM peut répondre : "Non, elle calcule des probabilités sur des tokens. Si votre corpus est nul, les réponses seront nulles. Point."

Ça fait gagner du temps.


FAQ

[Un LLM de 9M de paramètres, c’est utile en production ?] Non, et c’est justement l’intérêt. GuppyLM est un outil pédagogique, pas un modèle de prod. Son rôle est d’expliquer, pas de performer. Pour du vrai travail, utilisez au minimum des modèles comme Phi-2 (2.7B) ou Mistral 7B.

[Comment convaincre mon boss d’utiliser ça pour former les équipes ?] Dites-lui que :

  1. C’est gratuit (contrairement aux formations classiques).
  2. Ça prend 2h max pour un atelier.
  3. Les équipes retiennent mieux en pratiquant qu’en écoutant un PowerPoint. Et ajoutez : "Si on comprend pas comment ça marche, on va se faire arnaquer par les vendeurs d’IA."

[Est-ce que je peux fine-tuner GuppyLM pour qu’il parle comme mon chat ?] Techniquement, oui. Pratiquement, vous allez perdre un week-end à lui apprendre à dire "miaou" au lieu de "blub". Mais si ça vous amuse, le code est là. Pour un projet sérieux, partez sur TinyLlama et un corpus adapté.

Articles liés