Sécurité des agents IA
Les vrais risques des agents autonomes : prompt injection, exfiltration via MCP, sandboxing, permissions, hooks de sécurité. Red teaming d'agents IA.
Ce que vous saurez faire
Identifier les vecteurs d'attaque spécifiques aux agents IA
Mettre en place des mécanismes de sandboxing et gestion des permissions
Configurer des hooks de sécurité pour détecter et bloquer les comportements malveillants
Conduire un exercice de red teaming sur un agent IA
Définir une politique de sécurité pour le déploiement d'agents en production
Programme
Le modèle de menace des agents IA
- › Les 3 surfaces d'attaque : prompt, outils, contexte
- › Prompt injection directe et indirecte : démonstrations live
- › Vecteurs d'injection : pages web, emails, documents, réponses API
- › Techniques de défense : séparation données/instructions, validation, confirmation humaine
Exfiltration, sandboxing et permissions
- › Exfiltration via les outils de l'agent : fichiers, URL, API
- › MCP et surface d'attaque : serveurs malveillants, tool poisoning, escalade
- › Sandboxing : isolation filesystem, réseau, processus
- › Atelier : configurer un environnement sécurisé pour un agent
Hooks de sécurité et red teaming
- › Hooks de détection : secrets, URL suspectes, commandes dangereuses
- › Hooks de prévention : bloquer push --force, limiter requêtes sortantes
- › Red teaming en binômes : attaque et défense d'un agent
- › Contournement des hooks : tester la robustesse des protections
Politique de sécurité et monitoring
- › Rédiger la politique de sécurité agents de votre organisation
- › Monitoring en production : quoi logger, KPI, alerting
- › Incident response : détection, containment, investigation, recovery
- › Plan d'action : les 5 premières actions de durcissement
Infos pratiques
1 à 2 jours (7 à 14h)
RSSI, DSI, DevSecOps, développeurs, architectes sécurité
Connaissances de base en sécurité informatique. Familiarité avec les concepts d'IA.
1 à 6 personnes
30% théorie, 70% ateliers offensifs et défensifs sur environnements sandbox. Chaque participant repart avec une politique de sécurité IA et des hooks configurés.
Positionnement à l'entrée, exercices de red teaming, évaluation des acquis en fin de formation.
Colombani.ai, développeur IA et expert cybersécurité.
2 semaines minimum entre l'inscription et le début de la formation.
Tarifs
1 100 € / personne / jour
6 500 € / groupe (4-10 pers.) / 2 jours
Tarif sur devis. Chaque programme est adapté à votre situation, contactez-nous pour un devis personnalisé.
Accessibilité
Formation accessible aux personnes en situation de handicap. Contactez le référent handicap en amont pour étudier les aménagements possibles.
Ulysse Trin — [email protected] — 06 58 58 37 11
Suivi post-formation
Questions fréquentes
Faut-il des compétences en pentest pour suivre cette formation ? +
Non, mais des connaissances de base en sécurité informatique sont nécessaires. La formation est progressive : on part du modèle de menace avant d'attaquer le red teaming.
Le red teaming se fait-il sur de vrais agents ? +
Oui, sur des agents configurés en sandbox pour l'exercice. Vous attaquez et défendez des agents réels dans un environnement contrôlé.
Cette formation couvre-t-elle les risques MCP ? +
Oui, une session entière est dédiée aux risques MCP : serveurs malveillants, tool poisoning, escalade de privilèges. C'est un vecteur d'attaque critique pour les agents.
Formations complémentaires
Claude Code en production
Coder avec un agent IA, organiser son repository, déployer en équipe. CLAUDE.md, hooks, subagents, workflows multi-agents. Du terminal au setup de production en 2 jours.
Conformité IA : AI Act & RGPD
L'AI Act classe les agents IA autonomes comme systèmes à haut risque. Classification, documentation, gestion des risques. Préparez votre conformité avant août 2026.
Demander le programme complet
Programme sur mesure, adapté à votre secteur. Premier échange gratuit.