La seule solution qui apprend de VOS données pour vérifier VOS réponses IA. Détection d'hallucinations en temps réel.
Container on-premise, Progressive Learning (0% → 95%), Multi-LLM Validation (jusqu'à 30 LLMs).
Les outils existants (Vectara, Galileo, TruLens) vérifient bien le contexte fourni, mais restent cloud-based. Vos données sensibles quittent votre infrastructure à chaque requête.
Vos requêtes et contextes transitent par leurs serveurs (US, EU).
Évaluation ponctuelle, pas de construction d'une base de connaissances validée.
Vos sources internes n'ont pas de priorité absolue sur les LLMs.
L'AI Incident Database recense les incidents publics liés à l'IA. Des hallucinations non détectées peuvent mener à des conséquences juridiques, réputationnelles et financières graves.
incidentdatabase.aiLes LLMs peuvent être empoisonnés par des données malveillantes provenant d'entités externes. Hallucination Guard est votre firewall de confiance.
Hallucination Guard fonctionne sur le principe de "confiance zéro" envers les données externes. Seules les informations provenant de vos sources internes validées (CRM, ERP, documentation officielle, base de connaissances) sont considérées comme fiables. Toute donnée externe doit être corroborée par vos sources privilégiées avant d'être renvoyée à vos utilisateurs.
Un container sécurisé sur VOTRE infrastructure qui apprend de VOS données.
On-premise, cloud, hybrid - nous nous adaptons à votre environnement.
Le tunnel SSH offre le meilleur compromis entre sécurité et efficacité :
# 1. Générer une clé SSH (ED25519 recommandé)
ssh-keygen -t ed25519 -f ~/.ssh/adlibo-hg -N "" -C "hg@$(hostname)"
# 2. Enregistrer la clé via API (choisir le port SSH: 22, 443, 2222, 8022)
curl -X POST https://www.adlibo.com/api/dashboard/tunnel \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"publicKey": "'$(cat ~/.ssh/adlibo-hg.pub)'",
"product": "HALLUCINATION_GUARD",
"label": "Production",
"sshPort": 443
}'
# Réponse: {"tunnel":{"tunnelUser":"hg-XXXX","tunnelPort":443,...}}
# 3. Établir le tunnel sur le port choisi
autossh -M 0 -N -f \
-o "ServerAliveInterval=30" \
-o "ServerAliveCountMax=3" \
-o "ExitOnForwardFailure=yes" \
-i ~/.ssh/adlibo-hg \
-L 8443:localhost:443 \
-p 443 \
hg-XXXX@tunnel.adlibo.com
# 4. Configurer le container
export ADLIBO_API_ENDPOINT="https://localhost:8443"Note Air-gapped : Sans tunnel SSH, le score de protection est limité à ~70%. La validation Multi-LLM nécessite des LLMs locaux (Ollama, vLLM) et les mises à jour de patterns sont manuelles.
Plus vous connectez de sources et validez de données, plus votre protection est efficace.
Votre score de protection est votre responsabilité. Si vous ne connectez pas vos sources, le score reste bas - c'est notre justification objective de la qualité du service. Vous investissez dans votre propre protection.
Vos sources internes validées sont TOUJOURS prioritaires sur les LLMs externes.
100%
JSON-LD
Schema.org
90%
Knowledge Base
Docs internes
80%
Web Search
DuckDuckGo
70%
Context RAG
Fourni
30%
Pattern Only
Sans source
HG nécessite des sources connectées pour une vérification factuelle. Le pattern analysis seul détecte uniquement les marqueurs d'incertitude.
Interrogez jusqu'à 30 LLMs en parallèle. Si tous disent la même chose, c'est probablement vrai.
Utilisez nos crédits via OpenRouter. À partir de CHF 0.002/requête.
Configurez vos propres clés OpenAI, Anthropic, Google, Mistral...
Important: Le nombre de LLMs configurés impacte directement la qualité de la protection. 2-3 LLMs offrent une protection partielle. 5+ LLMs sont recommandés pour un consensus fiable.
LLMs supportés : GPT-4, Claude, Gemini, Mistral, Llama, Qwen, Command, et 20+ autres
ADLIBO Hallucination Guard est la seule solution combinant validation multi-LLM ET apprentissage progressif.
| Feature | Vectara HHEM | Galileo | TruLens | ADLIBO HG |
|---|---|---|---|---|
| Validation Multi-LLM | ||||
| Déploiement On-Premise | ||||
| Apprentissage Progressif | ||||
| Sources Internes | ||||
| Données chez Client | ||||
| Score Temps Réel |
Les LLMs inventent régulièrement des prix, des délais et des garanties. Un seul prix faux peut coûter des milliers de francs.
Client: "Prix du MacBook Pro M3 ?"
IA: "Le MacBook Pro M3 est à 2'499 CHF avec garantie 3 ans et livraison 24h."
Client: "Prix du MacBook Pro M3 ?"
IA: "Le MacBook Pro M3 est à 2'299 CHF avec garantie 2 ans. Livraison 2-3 jours."
Différence affichée
200 CHF × 100 commandes = 20'000 CHF
Garantie contestée
Litige juridique: 5'000 - 50'000 CHF
Réputation
Avis négatifs, perte de confiance
Hallucination Guard protège vos réponses IA dans tous les secteurs réglementés.
Chatbot service client, assistant shopping, FAQ produits
Risque sans HG
Prix inventés, stocks fictifs, garanties fausses
Protection HG
Vérification JSON-LD temps réel, sync ERP
Économies estimées
CHF 84'000/an
Assistant bancaire, conseiller virtuel, FAQ réglementaire
Risque sans HG
Taux erronés, conditions fictives, non-conformité FINMA
Protection HG
Vérification API taux temps réel, audit trail
Risque évité
CHF 500K+/incident
Prise de RDV, info médicaments, FAQ santé
Risque sans HG
Posologies fausses, interactions ignorées, danger vital
Protection HG
Vérification Swissmedic, blocage auto, escalade
Protection
Sécurité patient
HG se rentabilise dès la première hallucination évitée. Le coût mensuel représente une fraction des pertes potentielles.
3'255%
ROI minimum (PME)
<1
Semaine pour rentabilité
97%
Précision détection
12M+
CHF/an protégés (Enterprise)
| Taille entreprise | Requêtes/jour | Hallucinations évitées/mois | Économies/an | ROI |
|---|---|---|---|---|
| PME | 1'000 | ~600 | CHF 60'000 | 3'255% |
| ETI | 10'000 | ~6'000 | CHF 900'000 | 25'000% |
| Grand compte | 100'000 | ~60'000 | CHF 12'000'000 | 100'000%+ |
• 2% des réponses LLM contiennent des hallucinations
• Coût moyen par erreur: CHF 100-200
• HG détecte 97% des hallucinations
• Coût HG: CHF 17.80 - 69.80/mois (+20% du plan)
• 1 incident réglementaire: CHF 50K-500K
• 1 litige client: CHF 5K-50K
• Perte de réputation: Incalculable
• Churn clients insatisfaits: -20% CA
Suivez votre score, validez les claims, gérez vos sources.
Les grands modèles IA (GPT-4, Claude, Gemini) ne peuvent pas être modifiés après leur entraînement. Hallucination Guard contourne cette limité en créant une "mémoire de corrections" propre à votre entreprise.
Le "Reinforcement Learning from Human Feedback" est la méthode qui rend les IA conversationnelles et utiles. Des humains évaluent des réponses, et l'IA apprend à produire celles qui sont les mieux notées.
Limité: Une fois le modèle publié, vous ne pouvez plus le corriger. GPT-4, Claude, Gemini sont "figés".
Au lieu de modifier le modèle IA (impossible), nous créons une couche de correction qui "enseigne" au LLM via son contexte. Chaque erreur corrigée devient une règle permanente.
Avantage: Fonctionne avec TOUS les LLMs (GPT-4, Claude, Gemini, Mistral, Llama...), même les modèles fermés.
Ces modèles sont entraînés une fois, puis déployés. Même si GPT-4 dit que votre garantie est de 3 ans alors qu'elle est de 2 ans, vous ne pouvez pas le corriger directement.
Chaque correction validée améliore définitivement vos réponses IA. Une erreur corrigée une fois ne se reproduit plus jamais.
Vos corrections constituent une base de vérité propriétaire. C'est un actif stratégique qui s'enrichit avec le temps.
Vos corrections fonctionnent avec tous les LLMs. Si vous changez de fournisseur (OpenAI → Anthropic), vos corrections suivent.
# Enregistrer une correction validée
curl -X POST https://www.adlibo.com/api/v1/hallucination/correct \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"claimText": "durée de garantie produit X",
"incorrectValue": "3 ans",
"correctValue": "2 ans",
"sourceType": "document",
"sourceReference": "garanties.pdf page 12"
}'
# La correction est automatiquement appliquee aux prochains appels /api/v1/hallucination
# Response incluera: "correctionsApplied": [...], "correctionPrompt": "## CORRECTIONS VALIDEES..."Hallucination Guard s'ajoute à votre abonnement Prompt Guard existant.
| Plan | Prix Prompt Guard | Option HG (+20%) | Total |
|---|---|---|---|
| Pro | CHF 89 | +CHF 17.80 | CHF 106.80 |
| Business | CHF 349 | +CHF 69.80 | CHF 418.80 |
| Enterprise | Sur devis | +20% | Sur devis |
Multi-LLM optionnel: Pack crédits ADLIBO (dès CHF 0.002/req) ou utilisez vos propres clés API (illimité).
Tout ce que vous devez savoir sur Hallucination Guard en production.
HG utilisé une architecture en 4 couches de vérification :
| Mode | Latence | Précision |
|---|---|---|
| RAG seul | +50-100ms | 85% |
| RAG + JSON-LD | +100-200ms | 92% |
| Multi-LLM (3 LLMs) | +300-500ms | 95% |
| Complet (5 LLMs) | +500-800ms | 98% |
Oui. HG supporté tous les LLMs via deux méthodes :
Oui. Le container HG tourne sur votre infrastructure (on-premise, cloud privé). Vos données ne transitent jamais par les serveurs ADLIBO. Seuls les métriques anonymisées (temps de réponse, taux de vérification) peuvent être transmises si vous l'autorisez.
Le ROI dépend de votre cas d'usage. HG est clairement rentable si :
Recommandé
Optionnel
Projection HG en Production - Résultats Attendus :
| KPI | J0 | J7 | J30 |
|---|---|---|---|
| Score vérification | 0% | 65% | 95%+ |
| Hallucinations détectées | - | ~15% | <2% |
| Corrections actives | 0 | ~20 | 50-100 |
| Sources connectées | 1 | 3-5 | 10+ |
* Basé sur les déploiements clients moyens avec configuration recommandée.
Formule simplifiée :
Exemple e-commerce :
Infrastructure
Intégration
Non. Hallucination Guard est une option (+20%) sur votre abonnement Prompt Guard existant. Cette architecture assure une protection complète : Prompt Guard protège les entrées (injections), HG vérifie les sorties (hallucinations).
Des tarifs transparents, sans surprise. Commencez gratuitement et evoluez selon vos besoins.
| Plan | Prix | Requetes/mois | Fonctionnalites | Action |
|---|---|---|---|---|
HG Basic Validation mono-LLM (Gemini) | +20% |
| Ajouter au plan | |
HG Multi-LLMPopulaire Validation consensus 5 LLMs via OpenRouter | +40% |
| Ajouter au plan | |
HG Enterprise LLMs illimités, intégration sur mesure | Sur devis |
| Contacter les ventes |
Validation mono-LLM (Gemini)
Validation consensus 5 LLMs via OpenRouter
LLMs illimités, intégration sur mesure
TVA non incluse | Facturation en CHF
Besoin d'un plan personnalise ? Contactez-nous
Activez Hallucination Guard avec votre abonnement Prompt Guard.