
Comment utiliser GPT-5 efficacement
et il possède des fonctionnalités puissantes et utiles. Le modèle dispose d’une variété de paramètres et d’options parmi lesquels vous pouvez choisir, que vous devez sélectionner correctement pour optimiser les performances de GPT-5 pour votre domaine d’application.
Dans cet article, je vais approfondir les différentes options dont vous disposez lorsque vous utilisez GPT-5 et vous aider à choisir les paramètres optimaux pour qu’il fonctionne bien pour votre cas d’utilisation. Je discuterai des différentes modalités de saisie que vous pouvez utiliser, des fonctionnalités disponibles de GPT-5, telles que les outils et le téléchargement de fichiers, et je discuterai des paramètres que vous pouvez définir pour le modèle.
Cet article n’est pas sponsorisé par OpenAI et est simplement un résumé de mes expériences d’utilisation de GPT-5, expliquant comment vous pouvez utiliser le modèle efficacement.

Pourquoi devriez-vous utiliser GPT-5
GPT-5 est un modèle très puissant que vous pouvez utiliser pour une grande variété de tâches. Vous pouvez, par exemple, l’utiliser pour un assistant chatbot ou pour extraire des métadonnées importantes de documents. Cependant, GPT-5 propose également de nombreuses options et paramètres différents, dont vous pouvez en savoir plus dans le guide OpenAI sur GPT-5. Je vais expliquer comment naviguer dans toutes ces options et utiliser de manière optimale GPT-5 pour votre cas d’utilisation.
Capacités multimodales
GPT-5 est un modèle multimodal, ce qui signifie que vous pouvez saisir du texte, des images et de l’audio, et le modèle produira du texte. Vous pouvez également mélanger différentes modalités de saisie, par exemple en saisissant une image et une invite demandant des informations sur l’image, et recevoir une réponse. La saisie de texte est bien sûr attendue d’un LLM, mais la possibilité de saisir des images et du son est très puissante.
Comme je l’ai expliqué dans des articles précédents, les VLM sont extrêmement puissants en raison de leur capacité à comprendre directement les images, ce qui fonctionne généralement mieux que d’effectuer une OCR sur une image puis de comprendre le texte extrait. Le même concept s’applique également à l’audio. Vous pouvez, par exemple, envoyer directement un clip audio et analyser non seulement les mots du clip, mais également la hauteur, la vitesse de parole, etc. à partir du clip audio. La compréhension multimodale vous permet simplement de mieux comprendre les données que vous analysez.
Outils
Les outils sont une autre fonctionnalité puissante dont vous disposez. Vous pouvez définir des outils que le modèle peut utiliser pendant l’exécution, ce qui transforme GPT-5 en agent. Un exemple d’outil simple est la fonction get_weather() :
def get_weather(city: str):
return "Sunny"
Vous pouvez ensuite mettre vos outils personnalisés à disposition de votre modèle, ainsi qu’une description et les paramètres de votre fonction :
tools = [
{
"type": "function",
"name": "get_weather",
"description": "Get today's weather.",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "The city you want the weather for",
},
},
"required": ["city"],
},
},
]
Il est important de garantir des informations détaillées et descriptives dans vos définitions de fonction, y compris une description de la fonction et des paramètres d’utilisation de la fonction.
Vous pouvez définir de nombreux outils à mettre à disposition de votre modèle, mais il est important de rappeler les principes fondamentaux de la définition des outils d’IA :
- Les outils sont bien décrits
- Les outils ne se chevauchent pas
- Expliquez clairement au modèle quand utiliser la fonction. L’ambiguïté rend l’utilisation des outils inefficace
Paramètres
Il y a trois paramètres principaux dont vous devez vous soucier lorsque vous utilisez GPT-5 :
- Effort de raisonnement
- Verbosité
- Sortie structurée
Je vais maintenant décrire les différents paramètres et comment aborder leur sélection.
Effort de raisonnement
L’effort de raisonnement est un paramètre parmi lequel vous pouvez sélectionner :
Le raisonnement minimal fait essentiellement de GPT-5 un modèle sans raisonnement et doit être utilisé pour des tâches plus simples, pour lesquelles vous avez besoin de réponses rapides. Vous pouvez, par exemple, utiliser un effort de raisonnement minimal dans une application de chat où les questions sont simples à répondre et où les utilisateurs attendent des réponses rapides.
Plus votre tâche est difficile, plus vous devez utiliser le raisonnement, même si vous devez garder à l’esprit le coût et la latence liés à l’utilisation d’un raisonnement supplémentaire. Le raisonnement compte comme jetons de sortie, et au moment de la rédaction de cet article, 10 USD/million de jetons pour GPT-5.
J’expérimente généralement le modèle en partant du moindre effort de raisonnement. Si je remarque que le modèle a du mal à donner des réponses de haute qualité, je passe au niveau de raisonnement, d’abord de minimal -> bas. Je continue ensuite à tester le modèle et à voir ses performances. Vous devez vous efforcer d’utiliser le moins d’effort de raisonnement possible avec une qualité acceptable.
Vous pouvez définir l’effort de raisonnement avec :
client = OpenAI()
request_params = {
"model" = "gpt-5",
"input" = messages,
"reasoning": {"effort": "medium"}, # can be: minimal, low, medium, high
}
client.responses.create(**request_params)
Verbosité
La verbosité est un autre paramètre configurable important, et vous pouvez choisir parmi :
La verbosité définit le nombre de jetons de sortie (à l’exclusion des jetons de réflexion ici) que le modèle doit générer. La valeur par défaut est une verbosité moyenne, qui, selon OpenAI, est essentiellement le paramètre utilisé pour ses modèles précédents.
Supposons que vous souhaitiez que le modèle génère des réponses plus longues et plus détaillées, vous devez définir un niveau de verbosité élevé. Cependant, je me retrouve principalement à choisir entre une verbosité faible et moyenne.
- Pour les applications de chat, une verbosité moyenne est bonne car un modèle très concis peut donner l’impression aux utilisateurs qu’il est moins utile (de nombreux utilisateurs préfèrent plus de détails dans les réponses).
- Cependant, à des fins d’extraction, lorsque vous souhaitez uniquement afficher des informations spécifiques, telles que la date d’un document, j’ai défini le niveau de détail sur un niveau faible. Cela permet de garantir que le modèle répond uniquement avec le résultat souhaité (la date), sans fournir de raisonnement ni de contexte supplémentaires.
Vous pouvez définir le niveau de verbosité avec :
client = OpenAI()
request_params = {
"model" = "gpt-5",
"input" = messages,
"text" = {"verbosity": "medium"}, # can be: low, medium, high
}
client.responses.create(**request_params)
Sortie structurée
La sortie structurée est un paramètre puissant que vous pouvez utiliser pour garantir que GPT-5 répond au format JSON. Ceci est encore une fois utile si vous souhaitez extraire des points de données spécifiques, et aucun autre texte, tel que la date d’un document. Cela garantit que le modèle répond avec un objet JSON valide, que vous pouvez ensuite analyser. Toutes les extractions de métadonnées que j’effectue utilisent cette sortie structurée, car elle est extrêmement utile pour garantir la cohérence. Vous pouvez utiliser une sortie structurée en ajoutant la clé « texte » dans les paramètres de requête à GPT-5, comme ci-dessous.
client = OpenAI()
request_params = {
"model" = "gpt-5",
"input" = messages,
"text" = {"format": {"type": "json_object"}},
}
client.responses.create(**request_params)
Assurez-vous de mentionner « JSON » dans votre invite ; sinon, vous obtiendrez une erreur si vous utilisez une sortie structurée.
Téléchargement de fichiers
Le téléchargement de fichiers est une autre fonctionnalité puissante disponible via GPT-5. J’ai discuté plus tôt des capacités multimodales du modèle. Cependant, dans certains scénarios, il est utile de télécharger un document directement et de laisser OpenAI analyser le document. Par exemple, si vous n’avez pas encore effectué d’OCR ou extrait d’images d’un document, vous pouvez télécharger le document directement sur OpenAI et lui poser des questions. Par expérience, le téléchargement de fichiers est également rapide et vous obtiendrez généralement des réponses rapides, principalement en fonction de l’effort que vous demandez.
Si vous avez besoin de réponses rapides à partir de documents et que vous n’avez pas le temps d’utiliser d’abord l’OCR, le téléchargement de fichiers est une fonctionnalité puissante que vous pouvez utiliser.
Inconvénients du GPT-5
GPT-5 présente également quelques inconvénients. Le principal inconvénient que j’ai remarqué lors de l’utilisation est qu’OpenAI ne partage pas les jetons de réflexion lorsque vous utilisez le modèle. Vous ne pouvez accéder qu’à une synthèse de la réflexion.
Ceci est très restrictif dans les applications en direct, car si vous souhaitez utiliser des efforts de raisonnement plus élevés (moyens ou élevés), vous ne pouvez diffuser aucune information de GPT-5 vers l’utilisateur, pendant que le modèle réfléchit, ce qui entraîne une mauvaise expérience utilisateur. L’option consiste alors à utiliser des efforts de raisonnement moindres, ce qui conduit à des résultats de moindre qualité. D’autres fournisseurs de modèles frontières, tels qu’Anthropic et Gemini, disposent tous deux de jetons de réflexion.
Il y a également eu beaucoup de discussions sur le fait que GPT-5 est moins créatif que ses prédécesseurs, bien que ce ne soit généralement pas un gros problème avec les applications sur lesquelles je travaille, car la créativité n’est généralement pas une exigence pour l’utilisation de l’API de GPT-5.
Conclusion
Dans cet article, j’ai fourni un aperçu de GPT-5 avec les différents paramètres et options, ainsi que la manière d’utiliser le modèle le plus efficacement possible. S’il est utilisé correctement, GPT-5 est un modèle très puissant, même s’il présente naturellement aussi certains inconvénients, le principal de mon point de vue étant qu’OpenAI ne partage pas les jetons de raisonnement. Chaque fois que je travaille sur des applications LLM, je recommande toujours de disposer de modèles de sauvegarde disponibles auprès d’autres fournisseurs de modèles frontières. Cela pourrait, par exemple, avoir GPT-5 comme modèle principal, mais en cas d’échec, vous pouvez recourir à Gemini 2.5 Pro de Google.
👉 Retrouvez-moi sur les réseaux sociaux :
📩 Abonnez-vous à ma newsletter
✍️ Moyen
Vous pouvez également lire mes autres articles :



