Comment améliorer ses prompts pour exploiter GPT-4 à son plein potentiel

Comment améliorer ses prompts pour exploiter GPT-4 à son plein potentiel Parvenir à utiliser GPT-4 à pleine performance nécessite de respecter plusieurs règles élémentaires. Voici quelques conseils pour optimiser les réponses de l'IA.

Savez-vous prompter correctement ? Pour performer et optimiser réellement votre temps et votre énergie, GPT-4, le langage derrière ChatGPT, nécessite d'être cadré de manière efficace. Or le prompting, l'élaboration de consignes claires et précises, exige parfois quelques pirouettes techniques. Comme tout LLM, GPT-4 suit une logique qui peut paraître contre-intuitive. Un mot de travers dans un prompt et l'IA peut rapidement s'éparpiller quand elle n'hallucine tout simplement pas.

Rédaction de texte, génération de code, synthèse de documents… La méthodologie générale reste la même. Comme avec un élève en phase d'apprentissage, il est nécessaire de faire preuve de pédagogie et de prudence. Les utilisateurs de l'IA dans le monde professionnel aiment comparer GPT-4 à un profil de niveau alternant voire junior. Bien que ses capacités soient assez développées, sa production nécessite encore une supervision humaine active. Quelques grandes lignes doivent être respectées pour maximiser son efficacité.

Utiliser un pré-prompt

Par défaut, GPT-4 n'est pas en capacité d'avoir conscience de lui-même. OpenAI fournit un premier prompt à l'IA pour contextualiser la suite des échanges. Assez généraliste, ce dernier mérite d'être étoffé lors du premier message pour guider le modèle. Une technique majoritairement reconnue dans la communauté des prompt engineers consiste à donner un rôle à l'IA. "Le principe est simple : il s'agit d'adopter une approche semblable à un jeu de rôle. Cela consiste à contextualiser en expliquant par exemple à l'IA : 'Tu es journaliste depuis 20 ans. Ta mission va être de rédiger un article sur tel sujet avec x nombres de caractères.' Le but est d'expliquer au maximum afin de réduire le champ des possibles et éviter les réponses approximatives", explique Guillaume Lebrasseur, prompt engineer et enseignant à l'Institut de l'internet et du multimédia ainsi qu'aux Gobelins. Plus la durée fictive d'exercice de son métier est élevée, plus les chances de parvenir à un résultat qualitatif sont grandes.

Pour éviter que le texte généré ne soit trop général, il est nécessaire de préciser le ton à employer ainsi que le type de champ lexical. Pour nourrir sa réflexion, Yassine Aqejjaj, AI data lead product manager chez Devoteam, conseille d'appuyer le prompt sur des sources étayées. En demandant à GPT-4 de se baser sur un document, un article scientifique ou tout autre corpus susceptible de l'aider, sa réponse sera plus cadrée. Il aura également moins tendance à halluciner. Pour ce faire, il est possible de lui indiquer le titre de la ressource à utiliser. Si cette dernière est présente dans sa base de connaissances (jusqu'en septembre 2021), GPT pourra l'utiliser. L'autre méthode consiste à fournir intégralement le texte directement depuis la console.

Pour améliorer de manière globale les performances de GPT, Yassine Aqejjaj conseille d'utiliser les Custom instructions pour contextualiser la conversation. "OpenAI recommande, dans la section intitulée 'custom instruction', d'utiliser un prompt suffisamment long qui établit une structure précise. Cette structure est fondamentale pour créer toute l'expérience interactive qui en découle", détaille le spécialiste. Il est conseillé de donner un maximum d'informations à l'IA : pays de résidence, langue à utiliser, ton à employer…

La difficile mémorisation du texte

Comme de nombreux LLM, GPT-4 pèche régulièrement avec la gestion de la mémoire à court terme. Lorsque vous lui demandez de retenir un texte pour l'utiliser plus tard, le modèle, de par sa conception, a du mal à retenir l'ensemble des informations envoyées et ce d'autant plus si vous lui fournissez plusieurs documents. Lorsqu'on lui donne plusieurs articles, le système va accorder, de manière automatique, plus de poids à certains textes qu'à d'autres. Pour éviter ce biais, Yassine Aqejjaj recommande d'utiliser des tags, des titres avant chaque texte fourni à l'IA. Une fois les documents envoyés, lors de l'envoi du prompt, il faut spécifier à GPT-4 "qu'il doit construire sa réponse à partir de tous les documents de manière égale", en citant le titre de chaque ressource à prendre en compte. L'IA va alors répondre en prenant comme dataset les documents que vous venez de lui adresser plus haut.

Pour les articles complexes ou assez longs, une méthode reconnue pour maximiser la compréhension et l'apprentissage consiste à demander à GPT de résumer l'ensemble du texte et d'en extraire les points clé. "Vous pourriez lui dire, par exemple : 'Peux-tu récapituler les dix derniers textes que je t'ai envoyés ?' Cela vous permettra de vous assurer qu'il a bien suivi le contenu", conseille Guillaume Lebrasseur. Concernant l'utilisation de plugins pour la lecture de PDF ou de fichiers numériques, il est vital de vérifier que l'ensemble du document a bien été transmis à GPT. Par défaut, certains plugins du store d'OpenAI sont limités à un nombre de caractères maximum.

Générer un prompt complet en plusieurs étapes

Pour générer un prompt complet utilisable pour n'importe quelle conversation avec GPT-4, il est recommandé de procéder par étape. Guillaume Lebrasseur recommande une méthodologie précise. Il faut conditionner GPT-4 en lui expliquant que l'on souhaite élaborer un prompt. Ensuite, il faut lui demander de poser deux questions sur ce prompt en réponse. Répondre ensuite et lui demander une nouvelle fois de poser des questions sur le prompt. "Même si vous ne le percevez pas visuellement, la taille du prompt augmentera en mémoire. Et à un certain moment, dites-lui : 'C'est suffisant. Maintenant, je voudrais que tu me fournisses le prompt que je pourrais copier-coller, qui me sera utile pour gérer ce type de situation à l'avenir.' Et il le réalise très efficacement", indique Guillaume Lebrasseur.

Pour générer des textes plus longs, le spécialiste recommande une méthodologie approuvée par de nombreux experts de l'IA : la technique de la dissertation. Il suffit de demander à GPT-4 de générer un plan pertinent concernant un sujet X. Une fois le plan généré, n'hésitez pas à lui demander d'affiner ou de rectifier certaines parties. Enfin, demander à l'IA de générer un nombre X de paragraphes pour la partie une du plan et ainsi de suite. De manière générale, les LLM sont plus efficaces lorsque les tâches complexes sont découpées en plusieurs séquences.

Pour éviter que GPT-4 n'hallucine, aucune technique véritablement fiable n'a encore émergé, rappelle Yassine Aqejjaj. La seule véritable méthode consiste à analyser les réponses de l'IA afin de s'apercevoir à temps lorsque le modèle commence à divaguer. "Quand il hallucine, il faut remonter dans la conversation. C'est le signe qu'à un moment, on a raté un virage. Quelque chose est venu le polluer", la meilleure chose à faire est alors de reprendre au dernier message correct, préconise Guillaume Lebrasseur.