Autometa : la genèse d’un outil d’automatisation

Entretien croisé avec les deux collaborateurs de La Plateforme de l'inclusion à l'origine d'un produit d'intelligence artificielle, produit qui s'origine dans une intelligence et des essais bien humains.

Publié le vendredi 24 avril 2026

Jean Vettraino : Après (Ouvre une nouvelle fenêtre) l’entretien avec Annaëlle Garcia, j’aimerais que Louis-Jean et toi me racontiez la genèse d’Autometa, avec vos propres mots. À quel moment avez-vous pris conscience qu’il fallait un ou une Product Manager (responsable de produit numérique) ?

Alexis Akinyemi : Pour moi, le déclic a eu lieu quand Louis-Jean a présenté ce qu'il avait bricolé un week-end. D’emblée, j’ai vu deux choses remarquables !

D’abord, la preuve que des "non-devs" pouvaient fabriquer des produits numériques. À l'époque, on se demandait comment mobiliser l’expertise métier des PM, qu'on trouvait trop nombreux proportionnellement aux développeurs. Au lieu de s'en désoler, on s'est dit dit que le vibe coding nous apporterait forcément des pistes.

Ensuite, l’utilisation de (Ouvre une nouvelle fenêtre) Claude Code en tant que moteur de l’outil. Attention, ce n’est pas juste l'IA Claude ; c’est le client de code pour des utilisateurs non-devs qui change tout. Louis-Jean a ainsi importé tout l’univers des "skills" — la planification, les agents parallèles, les livrables en tiroir — dans le monde des non-développeurs.

JV : Cet effet de rupture, c’était un choc immédiat pour toi ?

AA : Totalement. Louis-Jean n’était pas identifié comme développeur - même s’il l’a été pendant plus de 15 ans -, et pourtant, il sortait un produit que les gens utilisaient déjà… Ce n'est pas une simple adaptation à l'IA : apporter la complexité des agents de code aux non-devs, c'est le sujet brûlant du moment. J'ai tout de suite voulu dire à Louis-Jean tout le potentiel que je voyais là-dedans.

JV : Au niveau de la souveraineté sur l’outil, c’est un sujet que Charles Capelli, notre responsable de la sécurité des systèmes d'information, a mis sur la table ou tu l'avais déjà en tête ?

AA : Je l'ai toujours en tête. J'ai été proche de l'initiative (Ouvre une nouvelle fenêtre) Albert IA d'Etalab, qui consiste à héberger des modèles open-source sur du matériel français pour traiter des données publiques sans passer par les Américains. Certes, l’obsolescence rapide du matériel en question remet en question le modèle, mais quand Charles a dit à Louis-Jean : "Ton truc n'est pas souverain, vous donnez tout aux Américains", j’ai su que l’architecture de Louis-Jean permettait de pivoter. On peut garder le même client mais le brancher sur des IA souveraines. C’est ce qui nous a permis de dire à France Travail : "Voyez ce qu'on peut faire, ça peut être 100 % souverain. C’est essentiellement une question de moyens.”. Et c’est aussi un des grands avantages de Claude Code : le client, l’architecture de skills, la gestion de la mémoire, peuvent tout à fait être propulsés par des IA souveraines.

JV : Et le besoin de PM, alors ?

AA : C’est venu en listant toutes les fonctionnalités potentielles et en voyant l’effervescence avec l'arrivée de Charles, Yannick, Pierre et Victor. Le directeur de La Plateforme de l’inclusion a aussi dû nous dire de regarder nos chiffres d'usage et notre impact… Notre conviction, c’est qu’un produit doit avoir quelqu’un qui l'incarne à temps plein pour exister et être tiré par l’impact. Louis-Jean ne pouvait pas être au four et au moulin. Il fallait donc Annaëlle.

JV : Louis-Jean, avant d'aller plus loin, un point technique : Autometa, c'est un RAG (Retrieval-Augmented Generation) ?

Louis-Jean Teitelbaum : Non, ce n'est pas exact techniquement. Un RAG fait une recherche classique dans une base, puis fait mouliner l'IA sur les résultats récupérés. Nous, on ne veut pas retravailler les données qu’on obtient de Matomo ou Metabase, les outils qui contiennent nos données statistiques anonymisées: on veut les chiffres bruts. Autometa est un outil d’automatisation, pas de recherche.

JV : Peux-tu revenir sur la genèse d’Autometa ?

LJT : La genèse… c’est une maturation de deux ans. Je suis parti du constat que notre (Ouvre une nouvelle fenêtre) Pilotage de l'inclusion actuel est très limité. Les outils successifs développés dans ce cadre n'ont finalement jamais été un "produit" : ils sont juste des processus de publication de données. C'est une liste de tableaux de bord que même les experts peinent à utiliser car tout dépend du nom du tableau. Je disais aux PM : "Si les gens avaient un oracle, quelles questions lui poseraient-ils ?" On n'a jamais vraiment fait ce boulot, jusqu'en octobre 2025.

JV : Et qu'est-ce qui se passe en octobre dernier ?

LJT : Je découvre un serveur MCP [ (Ouvre une nouvelle fenêtre) Model Context Protocol] compatible avec Metabase – l’outil qui permet de consulter toutes nos données de pilotage. Je teste alors, en branchant un agent conversationnel sur Metabase et ça marche. Je vais plus loin : comme nos données sont dures à comprendre, je crée un "aspirateur" de cartes Metabase pour récupérer les descriptifs et les requêtes derrière chaque sujet. C’était notre façon de documenter le sens de chaque colonne. J'en ai fait un giga-contexte pour un agent conversationnel. On a décidé de ne pas le publier, car on ne pouvait pas prendre le risque d’ introduire l'aléatoire de l'IA dans ces données relevant de la politique publique emploi et insertion.

JV : Et ensuite ?

À Noël dernier, j'ai essayé autre chose : en testant avec l'API Matomo, notre outil d’analyse de la fréquentation de nos sites web, j'ai réalisé que les machines étaient assez malines pour répondre à des questions complexes. J'ai fusionné les deux briques – données de pilotage et données de fréquentation – en un seul outil . J'ai d'abord tout fait dans mon terminal avec Claude Code, puis j'ai bossé sur une petite interface pour que les gens s’en servent plus simplement. Je l'ai montré à l'équipe Nova, l’équipe transverse à La Plateforme de l’inclusion en charge de l’impact, de la méthodologie et du coaching, et là, ça m'a complètement échappé… L'URL a tourné, tout le monde voulait donner son avis ou rejoindre l'équipe.

JV : Ce succès t’étonne ?

LJT : Ça m'étonne car je ne suis pas encore en confiance avec les résultats produits.

JV : Justement, est-ce que tu considères Autometa comme fiable ?

LJT : Pour moi, c'est aussi fiable que ma mémoire : je sais qu'il y a environ 160 000 travailleurs sociaux en France, mais c'est un ordre de grandeur, et si je veux faire quelque chose avec cette information, je vérifie avant. L'IA me donne des sortes d’ordres de grandeur. Si je n’ai pas compris d’où vient l’info, je ne pourrai pas m’en servir pour des choses sérieuses. Je suis surpris que certaines personnes copient-collent les résultats pour les montrer ailleurs.

JV : On dit souvent que l'IA se fiabilise progressivement. C'est un discours qu'on entend chez Mistral ou Anthropic. Tu es d'accord ?

LJT : Ces systèmes gagnent en qualité, mais la fiabilité est une notion différente, presque anthropomorphique. Un pont est fiable parce qu'on peut prouver techniquement qu'il ne s'effondrera pas. Avec l'IA, on fonctionne par induction : ça a marché 50 fois, donc on suppose que c'est fiable. Mais les façons de tomber en erreur me surprennent à chaque fois. On ne pourra progresser sur la fiabilité que si l'on progresse sur l'explicabilité.

La voie de fiabilisation d’Autometa qu’on a trouvée, c’est le travail méticuleux de documentation humaine. Il faut expliquer à la machine où trouver les données de référence sur chaque sujet, que certaines infos sont en double pour telle ou telle raison, ou qu'il ne faut pas confondre un "rendez-vous pris" avec une "demande de rendez-vous", etc. La machine ne sait pas ce qu'elle ne sait pas. La documentation qu’on donne à la machine est directement issue du travail qu’on a fait pour la fiabilisation de nos données de pilotage – on réutilise et on construit sur ce qu’ont fait nos experts. C’est le même genre de documentation qu’on donnerait à une personne qui rejoindrait notre équipe analyse de données.

JV : Cela n'apparaît pas dans la retranscription de son entretien, mais nous avions parlé d'éthique avec Annaëlle. Elle me disait que l'équipe Autometa se posait des questions de fond.

LJT : Le principal sujet éthique, c'est la potentielle dévalorisation du travail humain. Est-ce qu’on remplace nos analystes ? Non, au contraire, on se rend compte que leur travail est encore plus irremplaçable. Mais avec les agents codeurs,on est en train de rendre malheureux nos développeurs. Ils se réveillent dans un monde où l'on n'a plus le même souci de la durabilité. Ils deviennent des "gardes-chiourmes", au sens où on leur demande de vérifier du code qu'ils n'ont pas écrit et qui n’est pas toujours compréhensible . (On a fini par décider que ça n’était pas leur travail, sauf dans des circonstances spécifiques.)C’est un changement culturel énorme. On a une "baguette magique" qui donne énormément de vitesse pour créer et tester des choses, au risque de dégrader les conditions de travail des développeurs. Et d’un autre côté – il ne me paraît pas normal que le fossé entre ceux qui peuvent mettre en production et les autres se soit autant creusé en 25 ans. C’est souhaitable que les experts métiers puissent « s’exprimer » en créant du logiciel eux aussi.

JV : Et sur le plan environnemental ? Tu as récemment partagé (Ouvre une nouvelle fenêtre) le petit texte de Cédric Rossi

LJT : Je suis d'accord avec Cédric sur presque tout… Mais ayant vu la valeur que ça apporte à mes collègues, j’ai du mal à en faire l’impasse par principe. . Autometa, aujourd’hui, c'est l'équivalent de la consommation d'un lave-vaisselle qui tournerait chaque jour. C’est pas beaucoup à notre échelle, mais ça participe à une croissance sans doute incontrôlée de la consommation de ressources. Il faut s’attendre à ce qu’on doive arrêter d’utiliser cette technologie si on ne parvient pas à contrôler son coût environnemental.

JV : Pour finir, est-ce qu'on peut objectiver des gains de temps ou de nouvelles fonctionnalités pour les usagers ?

LJT : Moins des gains de temps que des gains d’opportunités. Pour les data analysts, le gain de temps est net – ils passent plus de temps sur leur cœur de métier, moins à répondre à des demandes intempestives. Mais comme l'usage de la donnée a explosé à la plateforme, on a surtout créé de nouveaux comportements chez les collègues devenus beaucoup plus autonomes.

Par ailleurs, il y a des fonctionnalités dont je rêvais, comme identifier le réseau de partenaires d’une structure d’insertion, ce qui est très utile avant une étude de terrain . On n’aurait jamais pris le temps de fabriquer cette fonction, mais Autometa nous fait ce calcul immédiatement. .

Autre exemple : l'équipe d'Elodie, Elise et Sam travaillait avec un Conseil Départemental. Ils ne savaient pas anticiper le nombre d’inscriptions au RSA car la CAF envoie les fichiers de flux de manière irrégulière (parfois rien pendant deux semaines, puis un fichier gigantesque). En 5 minutes, elles ont fabriqué avec Autometa un outil qui montre la saisonnalité des entrants. C’est presque un produit fini, né de l'itération. On sort enfin du chiffre froid de la "file active" pour montrer une dynamique réelle.

JV : C’est un excellent exemple. On va s'arrêter là pour ce premier échange, mais je pense qu'il faudra qu'on revienne bientôt sur ces enjeux de transformation des métiers. C'était important de montrer que tout ça part de questions de fond sur les besoins des usagers. Merci beaucoup, Louis-Jean !

Louis-Jean Teitelbaum : Avec plaisir.

Partager cette page