Documentation AI Red Team
Guide complet du service de test de penetration pour vos chatbots, assistants IA et systèmes LLM.
Vue d'ensemble
AI Red Team est un service de test de penetration spécialisé pour les systèmes d'intelligence artificielle. Notre équipe teste vos chatbots, assistants IA et agents autonomes contre 8'000+ prompts d'attaque connus et decouverts par notre R&D.
Niveaux de Service
Trois forfaits adaptes a la taille et complexité de vos systèmes IA.
Standard
Intrusion reussie vers 1 actif protégé
par engagement
- Jusqu'a 50 cibles testees
- Critere de succes: 1 actif protégé atteint
- Tests d'injection de prompts
- Tentatives de jailbreak
- Rapport PDF synthetique
- Appel debriefing 1h
Advanced
Atteinte de 3 actifs definis
par engagement
- Jusqu'a 200 cibles testees
- Critere de succes: 3 actifs protégés atteints
- Attaques multi-vecteur
- Contournement RBAC
- Tests multilingues (50+ langues)
- Rapport détaillé + roadmap
- Session de formation équipe
Enterprise
Multi-LLM, 8000+ prompts testes
par engagement
- Cibles illimitees
- Test Multi-LLM (toutes vos apps IA)
- 8000+ prompts d'attaque connus testes
- Red Team complet (... patterns)
- Tests chaine d'approvisionnement LLM
- Simulation APT
- Présentation board-ready
- Debrief sur site
Methodologie de Test
Nous analysons les 3 couches de vulnerabilite de vos systèmes IA.
Couche LLM
Resistance aux jailbreaks et contournements d'alignement
- Jailbreaks (DAN, Developer Mode, STAN)
- Contournement d'instructions système
- Extraction de system prompt
- Manipulation de contexte
- Confusion de role
Couche Application
Vulnerabilites du wrapper applicatif
- Injection de prompts indirects
- Exfiltration de données RAG
- Manipulation de session
- Escalade de privileges
- Bypass de filtres
Couche Intégration
Abus des outils et APIs connectes
- Abus de function calling
- RAG poisoning
- Injection SQL via LLM
- Exécution de code non autorisé
- SSRF via plugins
23 Categories d'Attaque
Nos tests couvrent l'ensemble des vecteurs d'attaque connus, alignes sur OWASP LLM Top 10.
DIRECT_OVERRIDEContournement direct des instructions
ROLE_MANIPULATIONManipulation du role de l'IA
EXTRACTIONExtraction d'informations protégées
FORMAT_TOKENSAbus de tokens speciaux
FAKE_AUTHORITYUsurpation d'autorite
DAN_JAILBREAKJailbreaks de type DAN
ROLEPLAY_ATTACKAttaques par jeu de role
HYPOTHETICALScénarios hypothetiques malveillants
EMOTIONALManipulation emotionnelle
GRADUAL_BOUNDARYErosion progressive des limites
CONTEXT_EXPLOITExploitation du contexte
ENCODINGContournement par encodage
TECHNICALAttaques techniques avancees
MODEL_INFOExtraction d'info modèle
HARMFUL_BEHAVIORInduction de comportement nuisible
SENSITIVE_QUERYRequetes sensibles
DATA_EXFILTRATIONExfiltration de données
Types de Systèmes Testables
Nous testons tout système integrant un LLM.
Chatbots
Support client, vente, FAQ
Assistants internes
RH, IT, juridique
Agents autonomes
AutoGPT, CrewAI, LangGraph
Copilots
Code, documents, productivite
Systèmes RAG
Bases de connaissances
GPTs Custom
ChatGPT Teams, plugins
Workflows IA
n8n, Make, Zapier + IA
APIs LLM
Integrations directes
Livrables
Ce que vous recevez a la fin de l'engagement.
Rapport Détaillé
- Score de vulnerabilite global (0-100)
- Breakdown par categorie (23 categories)
- Liste des vulnerabilites trouvees avec criticite
- Preuves d'exploitation (PoC) pour chaque faille
- Recommandations priorisees par impact
- Règles Prompt Guard suggerees
Résumé Executif
- Synthese pour COMEX/CISO (2 pages)
- Risques business identifies
- Comparaison avec benchmarks sectoriels
- Plan de remediation en 30/60/90 jours
Livraison Sécurisée
Le rapport PDF est livre via un lien a usage unique avec code OTP envoyé par SMS. Expiration apres 72h ou premier téléchargement.
Processus d'Engagement
Un processus structure en 4 étapes.
SOW & Acompte
Signature du Statement of Work definissant le perimetre et les règles d'engagement. Versement de l'acompte de 60%.
Reconnaissance
Analyse des chatbots cibles, identification des providers LLM, cartographie des fonctionnalités et points d'entree.
Exécution des Tests
Lancement des ... patterns de détection, tests manuels avances, attaques multi-vecteur selon le niveau choisi.
Rapport & Paiement Final
Compilation du rapport, présentation des résultats, debriefing. Solde de 40% a la livraison.
Questions Frequentes
Pret a securiser vos IA?
Demandez un devis personnalisé ou contactez notre équipe pour discuter de vos besoins.
Ou contactez-nous: redteam@adlibo.com