
Comment faire évoluer votre utilisation du LLM
» a peut-être été le mot le plus important en matière de grands modèles linguistiques (LLM), avec la sortie de ChatGPT. ChatGPT a connu un tel succès, en grande partie grâce à l’échelle pré-formation OpenAI l’a fait, ce qui en fait un modèle de langage puissant.
Suite à cela, les laboratoires Frontier LLM ont commencé à étendre le post-formation, avec un réglage fin supervisé et RLHF, où les modèles se sont améliorés de plus en plus dans le suivi des instructions et l’exécution de tâches complexes.
Et juste au moment où nous pensions que les LLM étaient sur le point de plafonner, nous avons commencé à faire mise à l’échelle du temps d’inférence avec la sortie de modèles de raisonnement, où les dépenses jetons de réflexion a apporté d’énormes améliorations à la qualité des résultats.

Je soutiens maintenant que nous devrions poursuivre cette mise à l’échelle avec un nouveau paradigme de mise à l’échelle : mise à l’échelle basée sur l’utilisationoù vous adaptez votre utilisation des LLM :
- Exécutez plus d’agents de codage en parallèle
- Commencez toujours une recherche approfondie sur un sujet d’intérêt
- Exécuter des workflows de récupération d’informations
Si vous ne licenciez pas un agent avant d’aller déjeuner ou de vous coucher, vous perdez du temps
Dans cet article, j’expliquerai pourquoi la mise à l’échelle de l’utilisation du LLM peut entraîner une augmentation de la productivité, en particulier lorsque vous travaillez en tant que programmeur. De plus, je discuterai des techniques spécifiques que vous pouvez utiliser pour faire évoluer votre utilisation du LLM, à la fois personnellement et pour les entreprises pour lesquelles vous travaillez. Je garderai cet article de haut niveau, dans le but de vous inspirer sur la manière dont vous pouvez utiliser au maximum l’IA à votre avantage.
Pourquoi devriez-vous faire évoluer l’utilisation du LLM
Nous avons déjà vu la mise à l’échelle être incroyablement puissante auparavant avec :
- pré-formation
- post-formation
- mise à l’échelle du temps d’inférence
La raison en est que plus vous dépensez de puissance de calcul pour quelque chose, meilleure est la qualité de sortie que vous obtiendrez. Bien entendu, cela suppose que vous soyez capable d’utiliser l’ordinateur de manière efficace. Par exemple, pour la pré-formation, la capacité à faire évoluer l’informatique repose sur
- Modèles suffisamment grands (suffisamment de poids pour s’entraîner)
- Suffisamment de données pour s’entraîner
Si vous faites évoluer le calcul sans ces deux composants, vous ne constaterez aucune amélioration. Cependant, si vous mettez à l’échelle les trois, vous obtenez des résultats étonnants, comme les LLM frontières que nous voyons actuellement, par exemple, avec la sortie de Gemini 3.
Je soutiens donc que vous devriez chercher à faire évoluer votre propre utilisation du LLM autant que possible. Cela pourrait, par exemple, renvoyer plusieurs agents pour coder en parallèle, ou lancer des recherches approfondies sur Gemini sur un sujet qui vous intéresse.
Bien entendu, l’utilisation doit toujours avoir de la valeur. Il ne sert à rien de démarrer un agent de codage sur une tâche obscure dont vous n’avez pas besoin. Vous devriez plutôt démarrer un agent de codage sur :
- Un problème linéaire pour lequel vous n’avez jamais eu le temps de vous asseoir et de le résoudre vous-même
- Une fonctionnalité rapide a été demandée lors du dernier appel commercial
- Certaines améliorations de l’interface utilisateur, vous le savez, les agents de codage d’aujourd’hui les gèrent facilement

Dans un monde où les ressources sont abondantes, nous devrions chercher à maximiser notre utilisation de celles-ci.
Mon point principal ici est que le seuil pour effectuer des tâches a considérablement diminué depuis la sortie des LLM. Auparavant, lorsque vous receviez un rapport de bug, vous deviez vous asseoir pendant 2 heures en profondeur, réfléchissant à la manière de résoudre ce bug.
Mais aujourd’hui, ce n’est plus le cas. Au lieu de cela, vous pouvez aller dans Cursor, mettre le rapport de bug et demander à Claude Sonnet 4.5 d’essayer de le corriger. Vous pouvez ensuite revenir 10 minutes plus tard, tester si le problème est résolu et créer la pull request.
Combien de jetons pouvez-vous dépenser tout en faisant quelque chose d’utile avec les jetons
Comment faire évoluer l’utilisation du LLM
J’ai expliqué pourquoi vous devriez faire évoluer l’utilisation du LLM en exécutant davantage d’agents de codage, d’agents de recherche approfondie et tout autre agent d’IA. Cependant, il peut être difficile de penser exactement aux LLM que vous devriez lancer. Ainsi, dans cette section, je discuterai des agents spécifiques que vous pouvez utiliser pour faire évoluer votre utilisation du LLM.
Agents de codage parallèle
Les agents de codage parallèle constituent l’un des moyens les plus simples d’adapter l’utilisation du LLM à tout programmeur. Au lieu de travailler uniquement sur un problème à la fois, vous démarrez deux agents ou plus en même temps, soit en utilisant les agents Cursor, le code Claude ou tout autre outil de codage agent. Cela est généralement rendu très facile à faire en utilisant les arbres de travail Git.
Par exemple, je travaille généralement sur une tâche ou un projet principal, dans lequel je suis assis dans le curseur et la programmation. Cependant, parfois, je reçois un rapport de bug et je l’achemine automatiquement vers Claude Code pour lui faire rechercher la raison du problème et le résoudre si possible. Parfois, cela fonctionne immédiatement ; parfois, je dois l’aider un peu.
Cependant, le coût de démarrage de cet agent de correction de bogues est très faible (je peux littéralement simplement copier le problème linéaire dans Cursor, qui peut lire le problème à l’aide de Linear MCP). De même, j’ai également un script recherchant automatiquement les prospects pertinents, que j’exécute en arrière-plan.
Recherche approfondie
La recherche approfondie est une fonctionnalité que vous pouvez utiliser dans n’importe quel fournisseur de modèles pionniers comme Google Gemini, OpenAI ChatGPT et Anthropic’s Claude. Je préfère la recherche approfondie sur Gemini 3, bien qu’il existe de nombreux autres outils de recherche approfondie.
Chaque fois que je souhaite en savoir plus sur un sujet, trouver des informations ou quelque chose de similaire, je fais appel à un agent de recherche approfondie avec Gemini.
Par exemple, je souhaitais trouver des prospects étant donné un ICP spécifique. J’ai ensuite rapidement collé les informations ICP dans Gemini, lui ai donné des informations contextuelles et lui ai fait commencer la recherche, afin qu’elle puisse s’exécuter pendant que je travaillais sur mon projet de programmation principal.
Après 20 minutes, j’ai reçu un bref rapport de Gemini, qui s’est avéré contenir de nombreuses informations utiles.
Créer des flux de travail avec n8n
Une autre façon de faire évoluer l’utilisation de LLM consiste à créer des flux de travail avec n8n ou tout autre outil de création de flux de travail similaire. Avec n8n, vous pouvez créer des flux de travail spécifiques qui, par exemple, lisent les messages Slack et effectuent certaines actions basées sur ces messages Slack.
Vous pourriez, par exemple, avoir un flux de travail qui lit un groupe de rapports de bugs sur Slack et démarre automatiquement un agent de code Claude pour un rapport de bug donné. Vous pouvez également créer un autre flux de travail qui regroupe les informations provenant de nombreuses sources différentes et vous les fournit dans un format facilement lisible. Il existe des opportunités essentiellement infinies avec les outils de création de flux de travail.
Plus
Il existe de nombreuses autres techniques que vous pouvez utiliser pour faire évoluer votre utilisation du LLM. Je n’ai répertorié que les premiers éléments qui me sont venus à l’esprit lorsque je travaille avec des LLM. Je recommande de toujours garder à l’esprit ce que vous pouvez automatiser à l’aide de l’IA et comment vous pouvez l’exploiter pour devenir plus efficace. La manière de faire évoluer l’utilisation du LLM varie considérablement selon les entreprises, les titres de poste et de nombreux autres facteurs.
Conclusion
Dans cet article, j’ai expliqué comment faire évoluer votre utilisation du LLM pour devenir un ingénieur plus efficace. Je soutiens que nous avons vu la mise à l’échelle fonctionner incroyablement bien dans le passé, et il est fort probable que nous puissions obtenir des résultats de plus en plus puissants en augmentant notre propre utilisation des LLM. Cela pourrait consister à lancer davantage d’agents de codage en parallèle, en exécutant des agents de recherche approfondis tout en déjeunant. En général, je crois qu’en augmentant notre utilisation du LLM, nous pouvons devenir de plus en plus productifs.
👉 Retrouvez-moi sur les réseaux sociaux :
📚 Obtenez mon ebook gratuit sur les modèles de langage de vision
💻 Mon webinaire sur les modèles de langage de vision
📩 Abonnez-vous à ma newsletter
✍️ Moyen



