
Comment exécuter OpenClaw avec des modèles Open Source
des abonnements Claude Code pour alimenter OpenClaw. Cela m’a poussé à rechercher des LLM alternatifs, étant donné que le prix de l’API pour Claude Opus 4.6 est extrêmement élevé.
J’ai commencé par tester le GPT-5.4 d’OpenAI, mais j’ai rencontré des problèmes avec le modèle paresseux. Je lui demanderais, par exemple, d’effectuer une tâche que je sais qu’il est capable de faire, et je verrais le modèle abandonner simplement après quelques tentatives.
C’est bien sûr inacceptable lorsqu’il s’agit d’un assistant utile, j’ai donc décidé de commencer à essayer d’autres alternatives et suis tombé sur une suite d’alternatives chinoises :
- Kimi-K2.5
- GLM-5.1
- MiniMax-M2.7
Kimi-K2.5 et GLM sont open source, contrairement à MiniMax. Le but de cet article est de mettre en évidence comment vous pouvez exécuter OpenClaw avec de nombreux modèles différents, comment le faire et comment rendre votre assistant OpenClaw efficace.

Pourquoi utiliser OpenClaw avec des modèles open source
La principale raison pour laquelle je suis passé de Claude Code à des alternatives open source était simplement le coût. Anthropic a désormais bloqué l’utilisation du niveau d’abonnement pour OpenClaw, et vous ne pouvez désormais utiliser Claude qu’avec OpenClaw via une API. Le prix de l’API pour Claude Opus 4.6 est actuellement de , ce qui fait rapidement grimper le coût.
J’ai donc commencé à chercher des solutions alternatives, moins coûteuses et tout en offrant de bonnes performances. J’ai d’abord essayé d’utiliser OpenAI, qui propose un niveau d’abonnement de 200 USD que vous pouvez utiliser avec OpenClaw. Cependant, j’ai constaté que le LLM était plutôt paresseux et peu disposé à résoudre les problèmes de manière indépendante. Bien souvent, j’ai dû beaucoup aider le modèle pour résoudre de nouveaux problèmes, ce qui n’est évidemment pas idéal lorsqu’on travaille avec un assistant.
Si vous effectuez une recherche rapide sur Google pour trouver les meilleurs modèles OpenClaw en ligne actuellement, vous obtiendrez probablement une liste avec Claude Opus, suivie de quelques modèles chinois tels que Kimi-K2.5. Ces modèles sont beaucoup moins chers que Claude Opus 4.6, avec Kimi-K2.5 au prix de 0,6/3 USD par million de jetons, soit environ 1/10ème du prix de Claude Opus 4.6.
J’ai donc décidé d’essayer Kimi-K2.5 pour voir s’il fonctionnait bien et si je pouvais en faire un assistant OpenClaw efficace.
Comment utiliser Kimi-K2.5 dans OpenClaw
J’ai commencé à utiliser Kimi-K2.5 dans OpenClaw, et c’était assez facile à configurer. Tout d’abord, j’avais besoin d’accéder au modèle Kimi-K2.5. Vous pouvez le faire via le site officiel de Kimi-K2.5. Cependant, j’ai décidé de le faire via OpenRouter car cela m’offre une flexibilité et une disponibilité supplémentaires. Lorsque vous accédez à Kimi-K2.5 via OpenRouter, vous payez un supplément d’environ 10 % en raison de la réduction des intermédiaires. Cependant, en échange, vous bénéficiez d’un accès facile à de nombreux modèles, y compris d’autres alternatives chinoises, et pouvez très facilement basculer entre eux.
Pour configurer Kimi-K2.5 dans mon OpenClaw, j’ai simplement récupéré une clé API d’OpenRouter, je l’ai fournie à mon instance Claude Code et je lui ai demandé de configurer mon modèle OpenClaw pour utiliser Kimi-K2.5 au lieu des modèles Anthropic.
Une chose importante que j’ai remarquée en abandonnant l’abonnement Anthropic est que vous devez supprimer toutes les références à Anthropic. C’est-à-dire que j’avais un assistant OpenClaw précédent ou existant qui fonctionnait sur Claude Opus 4.6. Lorsque je suis ensuite passé à Kimi-K2.5, j’ai toujours rencontré des problèmes OAuth même si Kimi-K2.5 était le modèle principal utilisé pour mon assistant. La raison pour laquelle je l’ai découvert était due à certaines références anthropiques, y compris une clé anthropique dans mes variables d’environnement. Assurez-vous de supprimer tous ces éléments afin de ne pas rencontrer de problèmes OAuth.
Assurez-vous de supprimer toutes les références de modèles précédentes, par exemple à Anthropic, lors de la configuration d’un nouveau LLM pour votre assistant OpenClaw.
Après cela, c’était assez simple. a pu réaliser une mise en œuvre unique.
Performances du Kimi-K2.5
Dans cette section, je couvrirai les performances du Kimi-K2.5, notamment par rapport à Claude Opus et OpenAI GPT-5.4. Si je devais ignorer complètement les coûts et penser simplement aux performances, je les classerais dans l’ordre suivant :
- Claude Opus 4.6
- Kimi-K2.5
- GPT-5.4
Cependant, l’écart entre 1 et 2 est bien plus petit à mon avis que l’écart entre les numéros 2 et 3. Kimi-K2.5 n’est pas loin en performance de Claude Opus lorsqu’il s’agit d’être utile en tant qu’assistant OpenClaw.
Je voudrais cependant noter que j’ai constaté que Kimi-K2.5 était parfois assez lent, ce qui, je crois, était dû au fait qu’il utilisait plus de jetons de réflexion que nécessaire pour des tâches faciles, et c’était une chose récurrente que j’ai remarquée par rapport à Claude Opus 4.6. Cependant, j’ai pu plus facilement m’assurer que Kimi-K2.5 continuait d’essayer et n’abandonnait pas facilement les tâches qu’il devrait être capable d’accomplir.
Donc, globalement, si j’étais complètement dans le coup, je choisirais probablement Claude Opus 4.6. Cependant, lorsque Kimmy coûte 1 dixième du prix, je pense que c’est un concurrent très sérieux et qu’il peut facilement rivaliser dans de nombreux domaines avec Claude Opus 4.6.
Techniques pour optimiser OpenClaw
Je souhaite également expliquer comment obtenir de meilleures performances avec OpenClaw lors de l’utilisation de modèles open source tels que Kimi-K2.5. Bien sûr, vous disposez de tous les conseils standard que vous devez suivre lorsque vous utilisez OpenClaw, notamment :
- S’assurer que le modèle possède des compétences spécifiques pour chaque tâche qu’il effectue.
- En lui donnant toutes les autorisations dont il a besoin, comme les clés API vers différents services.
- Configuration de tâches cron pour garantir que le modèle apprenne de ses discussions précédentes. Vous pouvez, par exemple, effectuer une tâche cron quotidienne pour examiner toutes les discussions d’aujourd’hui.
Dans l’ensemble, j’ai suivi ces conseils et les conseils généraux d’OpenClaw que j’avais précédemment suivis lors de l’utilisation de Claude Opus 4.6 avec OpenClaw. Je n’ai pas vraiment connu de domaine où les astuces qui fonctionnaient pour Claude Opus ne fonctionnaient pas pour Kimi-K2.5. Et je pense simplement qu’OpenClaw est assez indépendant du modèle de langage, tant que vous utilisez un modèle de langage très performant à la fois en termes de raisonnement et de capacités agentiques.
Inconvénients du Kimi-K2.5
Même si mon expérience globale avec Kimi-K2.5 a été très bonne, je voudrais également souligner certains inconvénients du modèle lors de son utilisation pour OpenClaw.
Le premier bémol est la rapidité des réponses pour des demandes simples. J’ai très clairement remarqué que Kimi-K2.5 était un peu plus lent, même si j’ai posé des requêtes très simples, telles que « Avez-vous accès à un service spécifique ? où il devrait répondre par un simple oui. Le modèle a passé beaucoup de temps à réfléchir avant de fournir des réponses aussi simples. Cependant, je pense qu’il convient de noter que même si le modèle était lent, le facteur le plus important pour moi est la qualité du résultat du modèle. Et la vitesse n’est pas aussi importante. Ainsi, même si la vitesse est regrettable, elle n’est pas essentielle à la mission.
Un autre inconvénient que je voudrais souligner est la conformité au RGPD. Bien entendu, si vous utilisez des modèles chinois via une API, vous ne serez pas conforme aux réglementations RGPD vous obligeant à rester dans l’UE, etc. Cela signifie que vous ne pouvez pas utiliser le modèle pour des données client ou des données de grande importance, et que cela reste sécurisé.
L’avantage est que le Kimi-K2.5 et les autres modèles chinois sont open source, donc en théorie, vous pouvez les héberger vous-même et ainsi être conforme à la réglementation RGPD. Bien que cela nécessite bien sûr que vous fassiez beaucoup plus de configuration vous-même, par exemple, configurer un GPU sur lequel vous pouvez exécuter le modèle, l’héberger, la vitesse sera probablement plus lente, etc., cela a donc également ses inconvénients.
Conclusion
Dans cet article, j’ai expliqué comment exécuter OpenClaw avec des modèles open source, où j’ai passé la plupart de mon temps à mettre en évidence mon expérience avec Kimi-K2.5. J’ai souligné comment Anthropic a interdit l’utilisation de services tiers pour son niveau d’abonnement, ce qui m’a obligé à faire un changement, en essayant des LLM alternatifs pour alimenter mon évaluation OpenClaw. J’ai essayé le GPT 5.4 d’OpenAI et j’ai constaté que le modèle était un peu paresseux, j’ai donc essayé d’autres modèles et j’ai eu une très bonne expérience en utilisant Kimi-K2.5. En gros, j’ai souligné comment le faire fonctionner le mieux possible et certains inconvénients du modèle. Je pense que les assistants OpenClaw sont incroyablement puissants et je vous invite à les essayer vous-même, surtout maintenant que vous pouvez exécuter des assistants pour beaucoup moins cher en utilisant des modèles de langage tels que Kimi-K2.5. À mon avis, les performances sont encore très élevées et il peut devenir un assistant précieux.
👉 Mon eBook et mon webinaire gratuits :
🚀 10x votre ingénierie avec les LLM (cours gratuit par e-mail de 3 jours)
📚 Obtenez mon ebook gratuit sur les modèles de langage de vision
💻 Mon webinaire sur les modèles de langage de vision
👉 Retrouvez-moi sur les réseaux sociaux :



