En quelques jours, la sécurité des grands modèles de langage (LLM) a été mise à mal par plusieurs chercheurs. Des brèches ou des contournements pouvant servir à des cybercriminels à éviter les garde-fous installés par les éditeurs. C’est le cas notamment de GPT-4o, le dernier modèle d'IA d’OpenAI qui a été piégé par Marco Figueroa, responsable du bug bounty sur la GenAI de Mozilla. Dans une publication de blog, il explique que le LLM analyse les entrées des...