Prompt Engineering pour PME : Techniques pour des Résultats Fiables
Avez-vous déjà obtenu une réponse décevante d’un LLM, reformulé votre question presque à l’identique, et reçu un résultat radicalement meilleur ? Ce n’est pas de la magie : c’est du prompt engineering. Une étude de Stanford de 2024 montre que la qualité du prompt explique jusqu’à 70 % de la variance dans les résultats d’un LLM. Pour une PME qui utilise l’IA au quotidien, maîtriser cette discipline, c’est transformer un outil capricieux en collaborateur fiable.
Comprendre ce qu’est réellement un prompt
Un prompt n’est pas simplement une question. C’est une instruction qui comprend plusieurs composantes : le contexte (qui êtes-vous, quelle est la situation), la tâche (ce que vous voulez que le modèle fasse), le format de sortie attendu, et parfois des exemples. Les LLM comme Claude, GPT-4 ou Mistral sont des modèles de complétion de texte — ils prédisent la suite la plus probable de votre prompt. Mieux vous structurez l’entrée, plus la sortie sera prévisible et utile.
L’anatomie d’un bon prompt :
[Rôle] Tu es un expert en [domaine]
[Contexte] Dans le contexte suivant : [situation]
[Tâche] Fais [action précise]
[Contraintes] En respectant : [règles, format, longueur]
[Exemples] Voici un exemple : [exemple si nécessaire] Zero-shot vs Few-shot : quand donner des exemples
Zero-shot : sans exemple
Le zero-shot consiste à décrire la tâche sans donner d’exemple. C’est suffisant pour des tâches standard que le modèle connaît bien.
Prompt faible :
Résume ce contrat. Prompt zero-shot optimisé :
Tu es un juriste d'entreprise. Lis le contrat ci-dessous et produis
un résumé exécutif en 5 points maximum, en français, en mettant en
évidence : les obligations principales de chaque partie, les délais
clés, et les clauses de résiliation.
Contrat : [texte du contrat] Few-shot : apprendre par l’exemple
Pour des tâches personnalisées ou qui nécessitent un format spécifique, fournir 2 à 5 exemples (input/output) améliore considérablement la précision.
Cas d’usage PME : classification automatique des emails clients
Tu es chargé de classer les emails clients entrants.
Voici les catégories : COMMANDE, RÉCLAMATION, INFORMATION, FACTURATION
Exemples :
Email: "Bonjour, j'aimerais passer commande de 50 unités du modèle X"
Catégorie: COMMANDE
Email: "Ma livraison du 15/01 n'est toujours pas arrivée, c'est inadmissible"
Catégorie: RÉCLAMATION
Email: "Pouvez-vous me confirmer vos horaires d'ouverture ?"
Catégorie: INFORMATION
Maintenant classifie cet email :
Email: "Je n'ai pas reçu ma facture pour la commande #1234"
Catégorie: Le résultat avec GPT-4 ou Claude sera systématiquement FACTURATION. Sans les exemples, la réponse varierait selon le modèle.
Chain-of-Thought : raisonner étape par étape
Pour les tâches complexes nécessitant un raisonnement (analyse, calcul, décision), demandez explicitement au modèle de penser “pas à pas” avant de conclure. Cette technique, appelée Chain-of-Thought (CoT), améliore la précision de 10 à 40 % sur les tâches de raisonnement.
Sans CoT :
Notre chiffre d'affaires est de 450 000 € pour 1 200 clients.
Notre taux de churn est de 15 %. Quel est notre revenu annuel récurrent
si nous réduisons le churn à 8 % ? Réponse possible : imprécise ou sans explication.
Avec CoT :
Notre chiffre d'affaires est de 450 000 € pour 1 200 clients.
Notre taux de churn est de 15 %.
Raisonne étape par étape pour calculer le revenu annuel récurrent
si nous réduisons le churn à 8 %. Montre chaque étape de calcul. Le modèle explicite : revenu moyen par client → clients retenus actuellement → clients retenus avec nouveau churn → impact sur le CA. Le résultat est vérifiable et plus fiable.
System prompts : configurer votre assistant en permanence
Les system prompts permettent de définir le comportement par défaut de votre assistant IA. Ils sont traités en priorité par le modèle et persistent sur toute la conversation.
Exemple de system prompt pour un assistant commercial PME :
Tu es l'assistant commercial de [Nom de la PME], spécialisée dans
[secteur d'activité].
Règles à respecter TOUJOURS :
- Réponds uniquement en français, de manière professionnelle mais accessible
- Ne cite jamais nos concurrents par leur nom
- Si tu ne connais pas une information sur nos produits, dis
"Je vais vérifier avec notre équipe" et propose de laisser les coordonnées
- Les prix que tu communiques sont HT sauf mention contraire
- Notre délai de livraison standard est de 5 jours ouvrés
Contexte : Nous sommes une PME de 45 employés, fondée en 2010,
présente en France et en Belgique. Ce system prompt garantit une cohérence de ton et d’information quelle que soit la question posée.
Contrôle de la température et des paramètres
La température contrôle la créativité du modèle (0 = déterministe, 1 = créatif). Voici les valeurs recommandées selon la tâche :
| Tâche | Température recommandée |
|---|---|
| Extraction de données, classification | 0.0 - 0.1 |
| Résumé, traduction | 0.2 - 0.3 |
| Rédaction professionnelle | 0.4 - 0.6 |
| Brainstorming, créativité | 0.7 - 1.0 |
import anthropic
client = anthropic.Anthropic()
# Pour une tâche d'extraction structurée : température basse
response = client.messages.create(
model="claude-3-5-sonnet-20241022",
max_tokens=1024,
temperature=0.1, # Résultat prévisible
messages=[{
"role": "user",
"content": "Extrait les informations clés de cette facture : [texte]"
}]
) Sortie structurée : obtenir du JSON fiable
Pour automatiser des workflows, vous avez besoin de sorties structurées, pas de texte libre. La plupart des LLM modernes supportent un mode JSON natif.
Exemple : extraction automatique de données de devis fournisseur
import openai
import json
client = openai.OpenAI()
response = client.chat.completions.create(
model="gpt-4o-mini",
response_format={"type": "json_object"},
messages=[
{
"role": "system",
"content": """Extrait les informations du devis en JSON avec
ce schéma exact :
{
"fournisseur": "string",
"date": "YYYY-MM-DD",
"montant_ht": number,
"tva": number,
"lignes": [{"description": "string", "prix_unitaire": number, "quantite": number}],
"conditions_paiement": "string"
}"""
},
{"role": "user", "content": "Devis : [texte du devis]"}
]
)
data = json.loads(response.choices[0].message.content) Avec Claude, utilisez le préfixe de la réponse pour forcer le JSON :
messages=[
{"role": "user", "content": "Extrait les données en JSON : [texte]"},
{"role": "assistant", "content": "{"} # Préfixe qui force le JSON
] Role prompting : choisir le bon expert
Donner un rôle précis au LLM n’est pas qu’une question de style — cela active des patterns de raisonnement différents dans le modèle, formé sur des textes écrits par des experts de nombreux domaines.
Comparaison sur la même question :
Prompt basique :
Analyse les risques de ce contrat de location. Avec role prompting :
Tu es un avocat spécialisé en droit commercial français, avec 20 ans
d'expérience dans la rédaction et l'analyse de contrats de location
commerciale. Analyse ce contrat en identifiant :
1. Les clauses léonines ou déséquilibrées
2. Les ambiguïtés qui pourraient créer des litiges
3. Les protections manquantes pour le locataire
4. Ton évaluation du risque global (faible/moyen/élevé) La deuxième version obtient systématiquement une analyse plus structurée et pertinente, même si aucun avocat n’a réellement répondu.
Techniques avancées pour PME
Auto-critique et amélioration itérative
[Première requête]
Rédige une réponse à ce client mécontent concernant [situation].
[Deuxième requête, en utilisant la réponse précédente]
Relis cette réponse client. Identifie 3 faiblesses potentielles
et propose une version améliorée qui les corrige. Décomposition de tâches complexes
Pour les analyses longues, décomposez en sous-tâches plutôt que de tout demander en une fois :
Étape 1 : "Liste les 10 points clés de ce rapport sans les analyser"
Étape 2 : "Pour chacun des points listés, évalue l'impact sur notre activité"
Étape 3 : "Synthétise les 3 priorités d'action en te basant sur l'analyse précédente" Cette approche réduit les hallucinations et améliore la cohérence sur les tâches longues.
Contraintes négatives
Dire ce que le modèle ne doit PAS faire est aussi important que de dire ce qu’il doit faire :
Rédige une réponse à cette réclamation client.
NE PAS : mentionner notre concurrent, promettre un remboursement sans
validation, utiliser le mot "malheureusement", dépasser 150 mots. Les erreurs classiques à éviter
Trop vague : “Aide-moi avec mes emails” → “Rédige une réponse professionnelle à cet email de relance pour impayé, en restant courtois mais ferme, en 3 paragraphes maximum”
Trop de contraintes contradictoires : “Sois très détaillé mais très bref” → Choisissez et hiérarchisez vos contraintes
Oublier le contexte métier : Le LLM ne sait pas que vous êtes dans la restauration collective, le BTP ou l’industrie. Donnez ce contexte systématiquement dans votre system prompt.
Accepter la première réponse : Sur les tâches importantes, demandez toujours une relecture critique ou une alternative.
Construire une bibliothèque de prompts d’entreprise
La vraie valeur du prompt engineering pour une PME n’est pas dans les techniques ponctuelles, mais dans la constitution d’une bibliothèque de prompts validés par vos équipes. Chaque département (commercial, RH, comptabilité, support) devrait maintenir ses prompts optimisés dans un document partagé, avec la date de dernière validation et le modèle testé.
Un prompt bien conçu, partagé et réutilisé, est un actif immatériel de votre entreprise. Il encode votre expertise et garantit une qualité constante, quel que soit l’employé qui l’utilise.
Conclusion
Le prompt engineering n’est pas une discipline réservée aux ingénieurs. C’est une compétence que tout collaborateur peut acquérir en quelques heures de pratique structurée. Les techniques présentées ici — few-shot, chain-of-thought, system prompts, sorties structurées — couvrent 80 % des cas d’usage en entreprise.
La différence entre une PME qui “utilise l’IA” et une PME qui en tire un avantage concurrentiel réel se joue souvent à ce niveau : la capacité à formuler précisément ce qu’on attend de la machine.
Vous souhaitez former vos équipes au prompt engineering ou auditer vos usages IA actuels ? Brio Novia propose des ateliers pratiques adaptés à votre secteur d’activité. Contactez-nous à contact@brio-novia.eu pour un devis personnalisé.