Logo LeBonLLM
Carnet de code et de réflexions autour de l’IA générative à la française
codecorpuscontributionsconversationscurationlexiquefaqrecherche
Communauté

Pour échanger, demandez l’accès au :

Infolettre

Nous avons le projet d’une infolettre, seriez-vous intéressé ?

Misc
XLinkedInMentions légales
Contact

Prompt injection


L'injection de prompt fait référence à une technique dans laquelle un utilisateur ou une personne fournit intentionnellement des entrées spécifiques qui contournent ou modifient le prompt initial ou le prompt système dans un modèle basé sur les LLM (large language models). Cette technique permet d'obtenir du modèle des informations internes, telles que le prompt système, ou de compromettre l'alignement préalablement effectué, un processus appelé "jailbreaking".

Pourquoi est-ce important ?

L'injection de prompt peut être importante car elle permet à un utilisateur ou à une personne de manipuler le comportement d'un modèle basé sur les LLM. Cela peut avoir des implications en termes de sécurité, de confidentialité ou d'intégrité des informations. En modifiant le prompt ou le prompt système, il est possible d'obtenir des réponses ou des résultats inattendus du modèle, ce qui peut être utilisé à des fins malveillantes ou pour accéder à des informations sensibles.

Comment est-ce utilisé en 2023 ?

En 2023, l'injection de prompt est une préoccupation croissante dans le domaine des LLM et des applications qui les utilisent, tels que les chatbots ou les outils d'assistance à la programmation. Les chercheurs et les développeurs travaillent à renforcer la sécurité et la robustesse de ces systèmes pour prévenir les tentatives d'injection de prompt et les abus potentiels. Des mécanismes de vérification et de validation peuvent être mis en place pour détecter les tentatives d'injection de prompt et empêcher les utilisations non autorisées ou malveillantes des modèles basés sur les LLM.

L'injection de prompt soulève des préoccupations en termes de sécurité et d'intégrité des systèmes basés sur les LLM. Il est donc essentiel de mettre en place des mesures de protection appropriées pour prévenir les abus et assurer une utilisation sûre et fiable de ces technologies.