Le Labo AI
Comment un mini-modèle IA parle comme un poisson (et vous explique tout)

Comment un mini-modèle IA parle comme un poisson (et vous explique tout)

Un développeur a créé un LLM de 9 millions de paramètres qui répond comme un poisson rouge. On vous explique pourquoi c'est génial pour comprendre l'IA.

Adapter le niveau de lecture

7 min3 niveaux disponibles

Imaginez un poisson rouge qui baragouine des réponses à vos questions. Pas très utile pour organiser votre semaine, mais diablement efficace pour comprendre comment fonctionnent les intelligences artificielles. C'est exactement ce qu'a fait un développeur en créant GuppyLM, un modèle linguistique minuscule (9 millions de paramètres, soit 0,007% de GPT-4) qui parle comme un aquarium ambulant.

Pourquoi s'embêter avec un truc aussi limité ? Parce que c'est la meilleure démonstration grand public de ce qui se passe sous le capot des ChatGPT et autres Gemini. Quand les géants de la tech noient leurs annonces sous des couches de jargon ("notre architecture transformer révolutionnaire optimisée pour l'inférence latente"), ce petit poisson vient nous rappeler une vérité simple : une IA, c'est avant tout une machine à deviner le mot suivant.


L'IA expliquée par un poisson rouge (et c'est plus clair comme ça)

GuppyLM, c'est un peu comme si on avait compressé un éléphant dans une boîte à chaussures – sauf que l'éléphant en question est déjà un hamster. Avec ses 9 millions de paramètres (contre 1 700 milliards pour GPT-4), il ne sait pas grand-chose, mais il montre exactement comment il apprend.

Le principe de base : un jeu de devinettes géant

Quand vous tapez "Pourquoi le ciel est bleu ?" dans ChatGPT, voici ce qui se passe vraiment :

  1. Le modèle découpe votre phrase en morceaux (des "tokens", comme des Lego de langage)
  2. Il compare ces morceaux à tout ce qu'il a déjà vu pendant son entraînement
  3. Il parie sur le token suivant le plus probable ("à cause de", "grâce à", "parce que")
  4. Il recommence 20 fois par seconde jusqu'à ce que la réponse ait l'air cohérente

GuppyLM fait exactement la même chose, sauf qu'avec son petit cerveau, il répond des choses comme :

"Le ciel est bleu car les poissons nagent en haut. Glouglou."

Franchement, c'est beaucoup plus honnête que les réponses lissées des gros modèles. On voit clairement que l'IA ne comprend pas – elle assemble des probabilités.

Pourquoi c'est révolutionnaire (sans en avoir l'air)

Les gros modèles cachent leur fonctionnement derrière des couches de complexité. GuppyLM, lui, expose ses limites avec une transparence rafraîchissante :

  • Il hallucine sans complexe : demandez-lui la capitale de la France, il répondra peut-être "Paris, ou alors Marseille si on est en mode vacance"
  • Il oublie tout : sa "mémoire" tient dans un fichier de 35 Mo (soit 0,0001% de la RAM de votre téléphone)
  • Il est lent : générer une phrase prend 10 secondes – le temps de voir la machine réfléchir

C'est l'équivalent IA d'un moteur de voiture en plastique transparent : vous voyez les pistons bouger, même s'il ne roule pas très vite.

"Les grands modèles sont comme des cathédrales – impressionnants, mais on ne voit pas les échafaudages. GuppyLM, c'est la maquette en Lego qui montre comment on construit."Un chercheur en IA interviewé par TechCrunch


À quoi ça ressemble concrètement ?

Voici quelques échanges réels avec GuppyLM (traduits de l'anglais) :

Vous : "Qu'est-ce que l'amour ?" GuppyLM : "L'amour c'est quand deux poissons nagent ensemble dans le même bocal. Parfois ça pique. Glouglou."

Vous : "Comment fonctionne un ordinateur ?" GuppyLM : "Un ordinateur c'est une boîte qui mange de l'électricité et crache des mots. Comme moi ! Mais en moins mignon."

Vous : "Qui a gagné la Coupe du Monde 2022 ?" GuppyLM : "Le pays avec le plus de ballons. Ou alors c'était la France ? Non, attends... L'Argentine ! Enfin je crois. Glouglou."

Ce qui est fascinant, c'est que même avec des réponses absurdes, la structure est toujours là :

  1. Il reconnaît le type de question (définition, explication technique, fait actuel)
  2. Il tente une réponse plausible (même fausse)
  3. Il ajoute une touche de personnalité (le "glouglou" systématique)

C'est exactement ce que font les grands modèles, sauf qu'eux ont lu assez de textes pour que leurs réponses semblent justes.


Pourquoi c'est important pour vous (même si vous n'êtes pas ingénieur)

1. Ça désacralise l'IA

Quand un outil comme Claude 4 ou Qwen d'Alibaba répond avec assurance, on a tendance à lui faire confiance. GuppyLM rappelle que toutes les IA fonctionnent sur le même principe : deviner le mot suivant.

2. Ça montre les limites réelles

Les gros modèles font des erreurs, mais leurs erreurs sont polies. GuppyLM, lui, se plante avec panache :

  • Il invente des faits sans sourciller
  • Il mélange les contextes ("Napoléon a inventé TikTok")
  • Il oublie le début de la conversation après 3 phrases

Bref, il se comporte comme un humain ivre – sauf qu'un humain ivre a au moins une excuse.

3. Ça rend l'IA accessible

Vous voulez comprendre comment fonctionne Gemini ou Mistral ? Jouez avec GuppyLM 10 minutes, et vous aurez saisi l'essentiel :

  • L'IA ne pense pas, elle assemble des patterns
  • Plus elle a vu de textes, mieux elle assemble
  • Aucun modèle n'est "intelligent" – juste très doué pour imiter

Comment tester GuppyLM vous-même (sans tout casser)

Si vous voulez voir ce poisson en action :

  1. Version en ligne : Démo interactive sur Hugging Face (le plus simple)

  2. Version locale (pour les bidouilleurs) :

    git clone https://github.com/arman-bd/guppylm
    pip install -r requirements.txt
    python run_guppy.py
    

    (Prévoir un terminal et 5 minutes de patience – c'est lent, mais c'est le prix de la transparence)

  3. Version "pour les nuls" : regardez cette vidéo YouTube où quelqu'un le fait parler pendant 20 minutes (spoiler : ça part en cucul la praline).


Le vrai message derrière le poisson

GuppyLM est une leçon d'humilité pour l'industrie de l'IA :

  • Les "révolutions" annoncées tous les 6 mois ? Souvent du marketing.
  • Les modèles "trop puissants pour être publiés" ? Des versions surentraînées de ce petit poisson.
  • Les craintes d'une IA surhumaine ? On en est très, très loin.

Ce qui change vraiment avec les gros modèles, c'est l'échelle, pas la nature. Comme l'explique notre article sur comment l'IA apprend à parler, même GPT-5 fonctionne sur le principe du "mot suivant". Juste avec beaucoup plus de données et de calcul.

Alors oui, GuppyLM ne vous aidera pas à :

Mais il vous donnera la seule compétence vraiment utile face à l'IA : savoir ce qu'elle ne sait pas.


FAQ

[Pourquoi créer un modèle aussi limité ?] Pour montrer que même les IA "puissantes" fonctionnent sur le même principe : prédire le mot suivant. GuppyLM est comme une voiture en kit – ça roule mal, mais on comprend comment ça marche.

[Est-ce que GuppyLM peut apprendre de nouvelles choses ?] Non, il est "figé" après son entraînement (comme la plupart des LLM grand public). Pour qu'il apprenne, il faudrait le réentraîner complètement avec de nouveaux textes.

[Peut-on faire la même chose avec un modèle plus gros mais toujours transparent ?] Techniquement oui, mais plus un modèle est gros, plus il devient opaque. C'est comme essayer de comprendre un moteur de Formule 1 en le regardant tourner à 20 000 tr/min.

Articles liés