SMART TECH - Le prompt injection : une nouvelle menace pour les modèles d’IA
par bsmart
Nouvelle forme d’attaque, le prompt injection consiste à pousser un modèle de langage IA à générer du contenu indésirable, trompeur, ou potentiellement malveillant. Cette menace, déjà problématique dans les modèles grand public comme ChatGPT ou Gemini, peut s’avérer beaucoup plus ennuyeuse lorsque ceux-ci sont connectés à des données internes d’entreprises car ils créent une nouvelle surface d’attaque beaucoup plus complexe à contrôler. Explications de l’advisor Hervé le Jouan.
Vidéo suivante dans 5 secondes