
Des invites ad hoc aux flux de travail d’IA répétables avec les compétences de Claude Code
1. Introduction
flux de travail fonctionnant une fois. Il est beaucoup plus difficile de le rendre reproductible.
Inviter ChatGPT ou Claude pour chaque exécution est rapide, mais les résultats sont incohérents et difficiles à reproduire. Tout construire en Python ou verrouiller le flux de travail améliore la fiabilité, mais supprime souvent la flexibilité qui rend les LLM utiles pour l’exploration.
Une compétence Claude Code peut combler cette lacune. Il préserve la flexibilité du langage naturel, tout en SKILL.md et les scripts groupés fournissent suffisamment de structure pour maintenir la cohérence du flux de travail.
Cette approche fonctionne mieux pour les tâches qui se répètent avec de petits changements, où les instructions en langage naturel sont importantes et où tout coder en dur ajouterait une complexité inutile.
Dans mon article précédent, j’ai expliqué comment concevoir, créer et distribuer une compétence Claude Code à partir de zéro. Dans cet article, je me concentrerai sur une étude de cas concret pour montrer où une compétence apporte une réelle valeur ajoutée.
2. Cas d’utilisation : recherche client virtuelle
L’étude de cas concerne les entretiens personnels LLM, utilisant un LLM pour simuler des conversations avec des clients à des fins de recherche qualitative.
La recherche client est précieuse, mais coûteuse. Une étude qualitative avec une agence spécialisée peut facilement coûter des dizaines de milliers d’euros.
C’est pourquoi de plus en plus d’équipes se tournent vers les LLM en remplacement. Vous pouvez dire à ChatGPT : « Vous êtes une femme de 25 ans intéressée par les soins de la peau », puis demander des réactions à un nouveau concept. Cette approche est rapide, gratuite et toujours disponible.
Cependant, lorsque vous essayez cette approche sur des projets réels, plusieurs problèmes surviennent. Ils reflètent les principales limites des incitations ad hoc.
3. Qu’est-ce qui ne va pas avec les invites ad hoc
Il est simple de demander à un LLM de jouer un personnage et de répondre aux questions. Les vrais problèmes commencent lorsque vous essayez de rendre ce processus reproductible sur plusieurs personnages, sessions ou projets.

Dans les workflows d’entretiens personnels, ces problèmes apparaissent rapidement. Les réponses dans une discussion partagée commencent à s’ancrer sur les réponses précédentes, les résultats dérivent vers un milieu générique et le panel est difficile à réutiliser pour des tests ultérieurs ou des questions de suivi.
C’est pourquoi une meilleure incitation ne suffit pas à résoudre le problème. Le problème n’est pas seulement la formulation. Le flux de travail lui-même a besoin de structure : des définitions de personnalité stables, une diversité délibérée et des contextes d’entretien indépendants.
4. De l’invite à une compétence réutilisable
L’étape clé n’était pas d’écrire une meilleure invite. Il s’agissait de transformer un flux de travail d’invite fragile et en plusieurs étapes en une compétence Claude Code réutilisable.
Au lieu de répéter manuellement la configuration du panneau, la génération de personnages et les instructions de suivi à chaque fois, je peux désormais déclencher l’ensemble du flux de travail avec une seule commande :
/persona generate 10 Gen Z skincare shoppers in the US
Du point de vue de l’utilisateur, cela semble simple. Mais derrière cette seule ligne, la compétence gère la conception des panels, la génération de personnages, la validation et le packaging des résultats de manière reproductible.
5. Ce qui se cache derrière la commande
Cette seule commande déclenche un flux de travail, pas seulement une seule invite.
En coulisses, la compétence fait deux choses : elle définit la structure du panel et génère des personnages de manière contrôlée. Cela nous permet de réaliser des entretiens virtuels dans des contextes isolés, afin que les résultats puissent être réutilisés pour des tests ou des suivis ultérieurs.

5a. Traitez les personas comme des objets structurés
Le premier changement consistait à traiter un personnage comme un objet de données structuré, et non comme une simple ligne de configuration conversationnelle. Ce changement rend le flux de travail plus fiable et plus facile à analyser.
Une approche naïve ressemble généralement à ceci :
You are a 22-year-old college student interested in skincare.
What do you think about a concept called "Barrier Repair Cream"?
Le personnage est vague ici, et à mesure que vous posez plus de questions, le personnage dérive. Au lieu de cela, je définis le persona comme un objet JSON :

Cette structure nous permet de cerner les attributs clés, afin que le personnage ne dérive pas au fil des questions. Puisque chaque personnage est stocké dans un fichier JSON, vous pouvez recharger le même panel pour votre prochain test de concept ou suivi.
5b. Concevez la diversité des panels dès le départ et validez-la
Le deuxième changement a été de définir la diversité du panel de clients avant de laisser le modèle d’IA générer des informations personnelles.
Si vous demandez simplement au LLM de générer 10 personas à la fois, vous ne pouvez pas contrôler l’équilibre du panel. Les âges peuvent se regrouper de manière trop étroite et les attitudes finissent souvent par ressembler à de petites variations d’une même personne.
J’ai donc conçu la compétence Claude Code pour définir le mélange d’attitudes dès le départ, puis générer des personas au sein de cette structure, et enfin valider le résultat par la suite. Pour un panel de soins de la peau de la génération Z, cela pourrait signifier un mélange planifié d’adeptes de la routine, de sceptiques en matière de soins de la peau, d’acheteurs soucieux de leur budget, de chasseurs de tendances et d’acheteurs motivés par leurs problèmes.
Une fois les segments définis, la compétence génère des personas puis valide la répartition après génération.
Un autre choix de conception compte au moment de l’entretien : chaque personnage s’exécute dans un contexte isolé. Cela empêche les réponses ultérieures de s’ancrer sur les réponses précédentes et permet de préserver des différences plus marquées au sein du panel.
6. Pourquoi une compétence Claude Code – Pas une invite, pas une bibliothèque Python
Les choix de conception ci-dessus ont été inspirés par TinyTroupe, une bibliothèque Python de Microsoft Research pour la simulation de personnages multiagents basée sur LLM. L’une de ses idées principales consiste à traiter les personnages comme des objets dans une configuration multi-agents. J’ai emprunté ce concept, mais j’ai découvert que son utilisation comme bibliothèque Python ajoutait plus de frictions que je ne le souhaitais pour le travail quotidien. J’ai donc reconstruit le workflow en tant que compétence Claude Code.
Une compétence correspond mieux à ce flux de travail qu’une invite ou une bibliothèque, car elle se situe à mi-chemin entre la flexibilité et la structure.


A partir de cette comparaison, les avantages d’une compétence Claude Code se résument à des points principaux.
Pas de facturation supplémentaire. Les bibliothèques Python qui appellent des LLM, y compris TinyTroupe, nécessitent une clé API OpenAI ou Claude distincte, et vous devez surveiller les coûts d’utilisation. Lorsque vous êtes encore en train d’expérimenter, ce petit compteur qui s’exécute en arrière-plan crée des frictions. Une compétence Claude Code s’exécute dans l’abonnement que vous avez déjà, donc faire passer le panel de 10 à 20 personnes n’ajoute pas de frais supplémentaires.
Les paramètres passent en langage naturel. Avec une bibliothèque Python, vous devez faire correspondre la signature de la fonction, par exemple : factory.generate_person(context="A hospital in São Paulo", prompt="Create a Brazilian doctor who loves pets"). Avec une compétence Claude Code, vous pouvez simplement écrire :
/persona generate 10 Gen Z skincare shoppers in the US
Cela suffit.
SKILL.md agit comme un garde-corps. Les règles de structuration d’un personnage, les étapes de conception de la diversité et le flux de travail global résident dans le fichier d’instructions. Vous n’êtes pas obligé de réécrire l’invite à chaque fois. Quels que soient les types d’utilisateurs, le squelette du workflow est protégé par la compétence.
Voici à quoi cela ressemble en pratique. La génération du panneau nécessite une commande en langage naturel :
/persona generate 10 Gen Z skincare shoppers in the US
Dix personnages différents sont générés et enregistrés sous forme d’objets JSON structurés. La répartition par segments et la répartition par âge sont validées automatiquement. Puis, en courant /persona ask What frustrates you most about choosing skincare products? interroge chaque personnage dans un contexte indépendant et donne une image complète des frustrations et des besoins du panel. Une démo complète, comprenant un test de concept et des verbatims, est disponible dans le dossier de démonstration sur GitHub.
7. Où les compétences de Claude Code s’adaptent – et où elles ne le font pas
Il existe des cas où une compétence n’est pas le bon outil. Les pipelines entièrement déterministes sont meilleurs sous forme de code simple. La logique qui nécessite un audit ou un examen réglementaire ne convient pas aux instructions en langage naturel. Pour une question exploratoire ponctuelle, il suffit de la poser dans une fenêtre de discussion.
Une compétence Claude Code ne se limite pas aux instructions en langage naturel. Vous pouvez également inclure des scripts Python dans la compétence. Dans la compétence persona, j’utilise Python pour la validation de la diversité des panels et pour l’agrégation des résultats. Cela vous permet de mélanger les parties pour lesquelles vous souhaitez le jugement flexible du LLM avec les parties qui doivent être déterministes, le tout dans la même compétence. C’est ce qui le distingue d’un modèle d’invite.
La règle générale est simple : lorsque votre flux de travail a besoin de structure mais que le codage en dur complet serait trop lourd, une compétence est souvent la bonne solution.
8. Conclusion
Il existe un juste milieu dans le travail répétitif d’IA : trop instable pour des invites ad hoc, trop rigide pour une bibliothèque Python. Une compétence Claude Code comble cette lacune, en conservant la flexibilité du langage naturel tout en SKILL.md et les scripts groupés agissent comme des garde-fous.
Dans cet article, j’ai utilisé les entretiens LLM comme étude de cas et j’ai parcouru les choix de conception clés derrière ce flux de travail : structurer les personnages en tant qu’objets et concevoir dès le départ la diversité des panels. Les concepts de base ont été inspirés par les recherches TinyTroupe de Microsoft.
Le plein SKILL.mdle code Python et une démo détaillée de claude-persona sont sur GitHub.
Points clés à retenir
- Une compétence Claude Code se situe entre les invites ad hoc et une bibliothèque Python. L’équilibre entre flexibilité et garde-fous en fait un bon choix pour l’empaquetage de flux de travail d’IA qui se répètent mais ne sont pas identiques à chaque exécution.
- Les entretiens personnels LLM deviennent beaucoup plus fiables une fois que vous structurez les personnages sous forme d’objets et concevez délibérément la diversité au niveau du panel.
- Si votre flux de travail d’IA est trop fragile comme invite mais trop fluide pour justifier une bibliothèque, une compétence Claude Code pourrait être la bonne couche intermédiaire.
Si vous avez des questions ou souhaitez partager ce que vous avez construit, retrouvez-moi sur LinkedIn.
Références
- Petite Troupe : github.com/microsoft/TinyTroupe
- Article TinyTroupe : Salem, P., Sim, R., Olsen, C., Saxena, P., Barcelos, R. et Ding, Y. (2025). TinyTroupe : une boîte à outils de simulation de personnalité multiagent basée sur LLM. arXiv:2507.09788
- claude-persona : github.com/takechanman1228/claude-persona
- Comment créer une compétence Claude Code prête pour la production : vers la science des données : https://towardsdatascience.com/how-to-build-a-production-ready-claude-code-skill/



