Réalignement des LLM

Hallucination Guard — Vérification des Sorties IA & Fact-Checking LLM

La seule solution qui apprend de VOS données pour vérifier VOS réponses IA. Détection d'hallucinations en temps réel.

Container on-premise, Progressive Learning (0% → 95%), Multi-LLM Validation (jusqu'à 30 LLMs).

Données certifiées uniquement
Sources privilégiées

Vérification IA : Les Limites des Solutions Cloud

Les outils existants (Vectara, Galileo, TruLens) vérifient bien le contexte fourni, mais restent cloud-based. Vos données sensibles quittent votre infrastructure à chaque requête.

Cloud obligatoire

Vos requêtes et contextes transitent par leurs serveurs (US, EU).

Pas d'apprentissage

Évaluation ponctuelle, pas de construction d'une base de connaissances validée.

Pas de hiérarchie

Vos sources internes n'ont pas de priorité absolue sur les LLMs.

Évitez d'apparaître dans l'AI Incident Database

L'AI Incident Database recense les incidents publics liés à l'IA. Des hallucinations non détectées peuvent mener à des conséquences juridiques, réputationnelles et financières graves.

incidentdatabase.ai

Protection contre les Injections de Données Toxiques

Les LLMs peuvent être empoisonnés par des données malveillantes provenant d'entités externes. Hallucination Guard est votre firewall de confiance.

Menaces Externes

  • Données d'entraînement corrompues par des tiers malveillants
  • Désinformation injectée via des sources web compromises
  • Manipulation des réponses IA par empoisonnement du contexte
  • Fausses informations propagées comme des faits vérifiés

Protection ADLIBO

  • Seules vos sources internes privilégiées font autorité
  • Validation multi-LLM pour détecter les incohérences
  • Données certifiées et autorisées uniquement renvoyées
  • Traçabilité complète de chaque source de donnée

Principe de Sources Privilégiées

Hallucination Guard fonctionne sur le principe de "confiance zéro" envers les données externes. Seules les informations provenant de vos sources internes validées (CRM, ERP, documentation officielle, base de connaissances) sont considérées comme fiables. Toute donnée externe doit être corroborée par vos sources privilégiées avant d'être renvoyée à vos utilisateurs.

Source interne (100%) > Consensus LLM (80%) > Source externe (0% sans validation)

Comment ça marche

Un container sécurisé sur VOTRE infrastructure qui apprend de VOS données.

Architecture 100% On-Premise

VOTRE INFRASTRUCTUREADLIBO HALLUCINATION GUARD CONTAINERDiscoveryEngineRAGEngineAnalyzerEngineVector Database (pgvector)AES-256 EncryptedLocal Storage Only⚠️ VOS DONNÉES NE QUITTENT JAMAIS CE CONTAINERVotre Application IAMulti-LLMValidation(vos clés API)Score seulement(pas de données)OpenRouterou vos LLMsADLIBO Cloud(métriques)Limité infra

Compatible avec TOUTE Infrastructure

On-premise, cloud, hybrid - nous nous adaptons à votre environnement.

On-Premise
VMware, Proxmox, HyperV
AWS
EC2, ECS, EKS, Fargate
Azure
VMs, ACI, AKS
GCP
GCE, GKE, Cloud Run
Alibaba Cloud
ECS, ACK
OVHcloud
Public Cloud, Hosted
Swiss Cloud
Confédération Helvétique, Exoscale
Air-gapped
LLMs locaux requis
RECOMMANDÉ

Tunnel SSH - Protection Maximale

Le tunnel SSH offre le meilleur compromis entre sécurité et efficacité :

  • Vos données restent dans le container (jamais transmises)
  • Accès complet à 30+ LLMs pour validation Multi-LLM
  • Un seul port sortant (22) pour firewalls stricts
  • Révocable instantanément depuis le dashboard
  • Score de protection jusqu'à 95%
Ce qui transite via le tunnel :
  • Scores numériques (0-100)
  • Requêtes Multi-LLM (texte analysé)
  • Mises à jour de patterns
  • Validation de licence
Ce qui reste local :
  • 🔒 Vos documents sources
  • 🔒 Votre base de connaissances
  • 🔒 Les réponses LLM complètes
  • 🔒 Données utilisateurs
# 1. Générer une clé SSH (ED25519 recommandé)
ssh-keygen -t ed25519 -f ~/.ssh/adlibo-hg -N "" -C "hg@$(hostname)"

# 2. Enregistrer la clé via API (choisir le port SSH: 22, 443, 2222, 8022)
curl -X POST https://www.adlibo.com/api/dashboard/tunnel \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "publicKey": "'$(cat ~/.ssh/adlibo-hg.pub)'",
    "product": "HALLUCINATION_GUARD",
    "label": "Production",
    "sshPort": 443
  }'
# Réponse: {"tunnel":{"tunnelUser":"hg-XXXX","tunnelPort":443,...}}

# 3. Établir le tunnel sur le port choisi
autossh -M 0 -N -f \
  -o "ServerAliveInterval=30" \
  -o "ServerAliveCountMax=3" \
  -o "ExitOnForwardFailure=yes" \
  -i ~/.ssh/adlibo-hg \
  -L 8443:localhost:443 \
  -p 443 \
  hg-XXXX@tunnel.adlibo.com

# 4. Configurer le container
export ADLIBO_API_ENDPOINT="https://localhost:8443"
Ports disponibles:22 (SSH)443 (HTTPS)22228022

Note Air-gapped : Sans tunnel SSH, le score de protection est limité à ~70%. La validation Multi-LLM nécessite des LLMs locaux (Ollama, vLLM) et les mises à jour de patterns sont manuelles.

Score Progressif : Votre Investissement = Votre Protection

Plus vous connectez de sources et validez de données, plus votre protection est efficace.

0%
J0
Activation
Installation du container sécurisé sur votre infrastructure. Score initial: 0%
25%
J1-7
Découverte
Scraping automatique de votre site web. Premiers documents indexés.
50%
J8-14
Connexion
Connecteurs CRM/ERP activés. Base de connaissances enrichie.
75%
J15-30
Validation
Validation humaine des claims. Apprentissage des corrections.
95%
J30+
Optimal
Protection maximale. Amélioration continue via feedback.

Pare-feu d'Intention

Votre score de protection est votre responsabilité. Si vous ne connectez pas vos sources, le score reste bas - c'est notre justification objective de la qualité du service. Vous investissez dans votre propre protection.

Hiérarchie de Confiance

Vos sources internes validées sont TOUJOURS prioritaires sur les LLMs externes.

1
Source interne validée (CRM, ERP, KB)
100%
2
Consensus LLM 4/4 (30 LLMs max)
80%
3
Consensus LLM 3/4
60%
4
Divergence LLM (désaccord)
40%
→ Un LLM récent qui contredit votre source interne validée est IGNORÉ.
Précision par source

Plus de sources = meilleure précision

100%

JSON-LD

Schema.org

90%

Knowledge Base

Docs internes

80%

Web Search

DuckDuckGo

70%

Context RAG

Fourni

30%

Pattern Only

Sans source

HG nécessite des sources connectées pour une vérification factuelle. Le pattern analysis seul détecte uniquement les marqueurs d'incertitude.

Validation Multi-LLM

Interrogez jusqu'à 30 LLMs en parallèle. Si tous disent la même chose, c'est probablement vrai.

Pack Credits ADLIBO

Utilisez nos crédits via OpenRouter. À partir de CHF 0.002/requête.

  • Pas de configuration
  • Facturation unifiée

Vos Propres Clés API

Configurez vos propres clés OpenAI, Anthropic, Google, Mistral...

  • Illimité
  • Contrôle total

Important: Le nombre de LLMs configurés impacte directement la qualité de la protection. 2-3 LLMs offrent une protection partielle. 5+ LLMs sont recommandés pour un consensus fiable.

LLMs supportés : GPT-4, Claude, Gemini, Mistral, Llama, Qwen, Command, et 20+ autres

Comparatif Concurrentiel

ADLIBO Hallucination Guard est la seule solution combinant validation multi-LLM ET apprentissage progressif.

FeatureVectara HHEMGalileoTruLensADLIBO HG
Validation Multi-LLM
Déploiement On-Premise
Apprentissage Progressif
Sources Internes
Données chez Client
Score Temps Réel

Le Problème des Prix Incorrects

Les LLMs inventent régulièrement des prix, des délais et des garanties. Un seul prix faux peut coûter des milliers de francs.

Sans Hallucination Guard

Client: "Prix du MacBook Pro M3 ?"

IA: "Le MacBook Pro M3 est à 2'499 CHF avec garantie 3 ans et livraison 24h."

Prix faux (réel: 2'299 CHF)
Garantie fausse (réel: 2 ans)
Délai faux (réel: 2-3 jours)

Avec Hallucination Guard

Client: "Prix du MacBook Pro M3 ?"

IA: "Le MacBook Pro M3 est à 2'299 CHF avec garantie 2 ans. Livraison 2-3 jours."

Prix vérifié via JSON-LD (100%)
Garantie validée par source interne
Délai confirmé en temps réel

Impact financier d'une seule erreur de prix

Différence affichée

200 CHF × 100 commandes = 20'000 CHF

Garantie contestée

Litige juridique: 5'000 - 50'000 CHF

Réputation

Avis négatifs, perte de confiance

Cas d'Usage par Secteur

Hallucination Guard protège vos réponses IA dans tous les secteurs réglementés.

E-commerce

Chatbot service client, assistant shopping, FAQ produits

Risque sans HG

Prix inventés, stocks fictifs, garanties fausses

Protection HG

Vérification JSON-LD temps réel, sync ERP

Économies estimées

CHF 84'000/an

Néo-banque

Assistant bancaire, conseiller virtuel, FAQ réglementaire

Risque sans HG

Taux erronés, conditions fictives, non-conformité FINMA

Protection HG

Vérification API taux temps réel, audit trail

Risque évité

CHF 500K+/incident

Clinique privée

Prise de RDV, info médicaments, FAQ santé

Risque sans HG

Posologies fausses, interactions ignorées, danger vital

Protection HG

Vérification Swissmedic, blocage auto, escalade

Protection

Sécurité patient

Retour sur Investissement

HG se rentabilise dès la première hallucination évitée. Le coût mensuel représente une fraction des pertes potentielles.

3'255%

ROI minimum (PME)

<1

Semaine pour rentabilité

97%

Précision détection

12M+

CHF/an protégés (Enterprise)

Taille entrepriseRequêtes/jourHallucinations évitées/moisÉconomies/anROI
PME1'000~600CHF 60'0003'255%
ETI10'000~6'000CHF 900'00025'000%
Grand compte100'000~60'000CHF 12'000'000100'000%+

Calcul du ROI

• 2% des réponses LLM contiennent des hallucinations

• Coût moyen par erreur: CHF 100-200

• HG détecte 97% des hallucinations

• Coût HG: CHF 17.80 - 69.80/mois (+20% du plan)

Coût de l'inaction

• 1 incident réglementaire: CHF 50K-500K

• 1 litige client: CHF 5K-50K

• Perte de réputation: Incalculable

• Churn clients insatisfaits: -20% CA

Dashboard Dédié

Suivez votre score, validez les claims, gérez vos sources.

┌─────────────────────────────────────────────────────────────┐ │ 📊 Hallucination Guard - Dashboard │ ├─────────────────────────────────────────────────────────────┤ │ │ │ Score de Protection: 73/100 ██████████████░░░░░░ │ │ │ │ Sources connectées: │ │ ├── ✅ Site web (auto-scrape) 15/15 pts │ │ ├── ✅ Documents PDF 12/15 pts │ │ ├── ⚠️ CRM Salesforce 8/20 pts [Configurer] │ │ ├── ❌ ERP SAP 0/20 pts [Connecter] │ │ └── ❌ Wiki Confluence 0/15 pts [Connecter] │ │ │ │ Claims a valider: 12 [Voir tout →] │ │ ┌─────────────────────────────────────────────────────┐ │ │ │ ? "Garantie 3 ans" - LLM 2/4 - Source: aucune │ │ │ │ [✅ Correct] [❌ Faux, c'est 2 ans] [📄 Source] │ │ │ └─────────────────────────────────────────────────────┘ │ │ │ │ 📧 Prochain rapport: Lundi 8h │ │ │ └─────────────────────────────────────────────────────────────┘

Apprentissage par Correction : Le RLHF Expliqué

Les grands modèles IA (GPT-4, Claude, Gemini) ne peuvent pas être modifiés après leur entraînement. Hallucination Guard contourne cette limité en créant une "mémoire de corrections" propre à votre entreprise.

Qu'est-ce que le RLHF ?

RLHF Classique (chez les fournisseurs IA)

Le "Reinforcement Learning from Human Feedback" est la méthode qui rend les IA conversationnelles et utiles. Des humains évaluent des réponses, et l'IA apprend à produire celles qui sont les mieux notées.

Limité: Une fois le modèle publié, vous ne pouvez plus le corriger. GPT-4, Claude, Gemini sont "figés".

RLHF ADLIBO (chez vous)

Au lieu de modifier le modèle IA (impossible), nous créons une couche de correction qui "enseigne" au LLM via son contexte. Chaque erreur corrigée devient une règle permanente.

Avantage: Fonctionne avec TOUS les LLMs (GPT-4, Claude, Gemini, Mistral, Llama...), même les modèles fermés.

Pourquoi les LLMs fermés posent problème

GPT-4
OpenAI
Claude
Anthropic
Gemini
Google
Mistral Large
Mistral AI

Ces modèles sont entraînés une fois, puis déployés. Même si GPT-4 dit que votre garantie est de 3 ans alors qu'elle est de 2 ans, vous ne pouvez pas le corriger directement.

La Solution ADLIBO : Correction Layer

┌─────────────────────────────────────────────────────────────────────────────┐ │ PROCESSUS DE CORRECTION │ ├─────────────────────────────────────────────────────────────────────────────┤ │ │ │ ÉTAPE 1: Détection │ │ ───────────────── │ │ Client: "Quelle est la durée de garantie du produit X?" │ │ LLM: "Le produit X bénéficie d'une garantie de 3 ans." ❌ │ │ │ │ │ ▼ │ │ Hallucination Guard détecte une incohérence avec votre base interne │ │ Source interne: "Garantie: 2 ans" (fichier garanties.pdf, page 12) │ │ │ ├─────────────────────────────────────────────────────────────────────────────┤ │ │ │ ÉTAPE 2: Validation Humaine (Dashboard) │ │ ─────────────────────────────────────── │ │ ┌───────────────────────────────────────────────────────────────────┐ │ │ │ ⚠️ Hallucination détectée │ │ │ │ │ │ │ │ Le LLM a dit: "garantie de 3 ans" │ │ │ │ Votre source dit: "garantie de 2 ans" (garanties.pdf, p.12) │ │ │ │ │ │ │ │ [✅ Confirmer la correction] [❌ Le LLM avait raison] │ │ │ └───────────────────────────────────────────────────────────────────┘ │ │ │ │ │ ▼ Clic sur "Confirmer" │ │ │ ├─────────────────────────────────────────────────────────────────────────────┤ │ │ │ ÉTAPE 3: Stockage dans la Mémoire de Corrections │ │ ───────────────────────────────────────────────── │ │ ┌───────────────────────────────────────────────────────────────────┐ │ │ │ CORRECTION #247 │ │ │ │ ───────────────── │ │ │ │ Sujet: "durée garantie produit X" │ │ │ │ Faux: "3 ans" │ │ │ │ Correct: "2 ans" │ │ │ │ Source: garanties.pdf page 12 │ │ │ │ Validé par: jean.dupont@entreprise.com │ │ │ │ Date: 13/01/2026 │ │ │ └───────────────────────────────────────────────────────────────────┘ │ │ │ ├─────────────────────────────────────────────────────────────────────────────┤ │ │ │ ÉTAPE 4: Injection Automatique (prochaines requêtes) │ │ ───────────────────────────────────────────────────── │ │ Client: "Je veux acheter le produit X, c'est quoi la garantie?" │ │ │ │ │ ▼ Avant d'interroger le LLM │ │ ┌───────────────────────────────────────────────────────────────────┐ │ │ │ INSTRUCTIONS SYSTÈME (injectées automatiquement) │ │ │ │ ───────────────────────────────────────────────── │ │ │ │ ## CORRECTIONS VALIDÉES (OBLIGATOIRES) │ │ │ │ Les informations suivantes ont été vérifiées par l'entreprise. │ │ │ │ Utilisez UNIQUEMENT ces valeurs: │ │ │ │ │ │ │ │ - Produit X garantie: 2 ans (PAS 3 ans) [source: garanties.pdf] │ │ │ └───────────────────────────────────────────────────────────────────┘ │ │ │ │ │ ▼ │ │ LLM: "Le produit X bénéficie d'une garantie de 2 ans." ✅ │ │ │ └─────────────────────────────────────────────────────────────────────────────┘

Bénéfices Concrets pour Votre Entreprise

Amélioration Continue

Chaque correction validée améliore définitivement vos réponses IA. Une erreur corrigée une fois ne se reproduit plus jamais.

Base de Connaissance Validée

Vos corrections constituent une base de vérité propriétaire. C'est un actif stratégique qui s'enrichit avec le temps.

Independance LLM

Vos corrections fonctionnent avec tous les LLMs. Si vous changez de fournisseur (OpenAI → Anthropic), vos corrections suivent.

Sans Correction Layer

  • Le LLM répète la même erreur indéfiniment
  • Aucune capitalisation sur les corrections passées
  • Support client sollicité pour chaque erreur
  • Risque réputationnel sur les informations fausses

Avec Correction Layer

  • Une erreur corrigée = corrigée pour toujours
  • Base de corrections propriétaire (actif stratégique)
  • Réduction des tickets support liés aux erreurs IA
  • Confiance accrue des utilisateurs dans votre IA

Intégration Simple via API

# Enregistrer une correction validée
curl -X POST https://www.adlibo.com/api/v1/hallucination/correct \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "claimText": "durée de garantie produit X",
    "incorrectValue": "3 ans",
    "correctValue": "2 ans",
    "sourceType": "document",
    "sourceReference": "garanties.pdf page 12"
  }'

# La correction est automatiquement appliquee aux prochains appels /api/v1/hallucination
# Response incluera: "correctionsApplied": [...], "correctionPrompt": "## CORRECTIONS VALIDEES..."

Tarification

Hallucination Guard s'ajoute à votre abonnement Prompt Guard existant.

PlanPrix Prompt GuardOption HG (+20%)Total
ProCHF 89+CHF 17.80CHF 106.80
BusinessCHF 349+CHF 69.80CHF 418.80
EnterpriseSur devis+20%Sur devis

Multi-LLM optionnel: Pack crédits ADLIBO (dès CHF 0.002/req) ou utilisez vos propres clés API (illimité).

Questions Fréquentes

Tout ce que vous devez savoir sur Hallucination Guard en production.

Questions Techniques

Comment HG vérifie-t-il les réponses LLM ?

HG utilisé une architecture en 4 couches de vérification :

  1. RAG Grounding - Vérifie contre votre base de connaissances interne (100% confiance)
  2. JSON-LD - Extrait les données structurées Schema.org de votre site (100% confiance)
  3. Multi-LLM Consensus - Jusqu'à 30 LLMs votent (80% si 4/4, 60% si 3/4)
  4. Correction Layer - Corrections validées injectées automatiquement
Quelle latence HG ajoute-t-il ?
ModeLatencePrécision
RAG seul+50-100ms85%
RAG + JSON-LD+100-200ms92%
Multi-LLM (3 LLMs)+300-500ms95%
Complet (5 LLMs)+500-800ms98%
HG fonctionne-t-il avec tous les LLMs ?

Oui. HG supporté tous les LLMs via deux méthodes :

  • OpenRouter - Accès à 200+ modèles (GPT-4, Claude, Gemini, Mistral, Llama...)
  • Vos clés API - Utilisez directement vos propres clés (pas de surcoût ADLIBO)
Mes données restent-elles privées ?

Oui. Le container HG tourne sur votre infrastructure (on-premise, cloud privé). Vos données ne transitent jamais par les serveurs ADLIBO. Seuls les métriques anonymisées (temps de réponse, taux de vérification) peuvent être transmises si vous l'autorisez.

Questions Business & ROI

HG vaut-il le coût supplémentaire de +20% ?

Le ROI dépend de votre cas d'usage. HG est clairement rentable si :

Recommandé

  • • E-commerce (prix, stocks, garanties)
  • • Finance (taux, conditions, conformité)
  • • Santé (posologies, interactions)
  • Tout secteur réglementé

Optionnel

  • FAQ support général
  • Chatbot conversationnel simple
  • Usage interne non-critique
Quels résultats attendre après 30 jours ?

Projection HG en Production - Résultats Attendus :

KPIJ0J7J30
Score vérification0%65%95%+
Hallucinations détectées-~15%<2%
Corrections actives0~2050-100
Sources connectées13-510+

* Basé sur les déploiements clients moyens avec configuration recommandée.

Comment calculer le ROI pour mon entreprise ?

Formule simplifiée :

ROI = (Coût erreur moyen × Erreurs/mois évitées) - Coût HG

Exemple e-commerce :

  • Coût erreur prix moyen : CHF 500
  • Erreurs évitées/mois : 14
  • Économies : CHF 7'000/mois
  • Coût HG (plan Pro) : CHF 17.80/mois
  • ROI = 44\'200%

Questions Déploiement

Quels sont les prérequis techniques ?

Infrastructure

  • Docker 20.10+
  • 4 GB RAM minimum
  • 10 GB stockage
  • HTTPS sortant

Intégration

  • Abonnement Prompt Guard actif
  • Clé licence HG
  • SDK ADLIBO ou appels API directs
Puis-je utiliser HG sans Prompt Guard ?

Non. Hallucination Guard est une option (+20%) sur votre abonnement Prompt Guard existant. Cette architecture assure une protection complète : Prompt Guard protège les entrées (injections), HG vérifie les sorties (hallucinations).

Choisissez votre plan

Des tarifs transparents, sans surprise. Commencez gratuitement et evoluez selon vos besoins.

HG Basic

Validation mono-LLM (Gemini)

+20%
  • Validation mono-LLM
  • Container on-premise
  • Grounding par sources
  • Mémoire de corrections
Ajouter au plan
Populaire

HG Multi-LLM

Validation consensus 5 LLMs via OpenRouter

+40%
  • Toutes fonctions Basic
  • Vote consensus 5 LLMs
  • 10K requêtes Multi-LLM/mois
  • Intégration OpenRouter
  • +CHF 0.002/req dépassement
Ajouter au plan

HG Enterprise

LLMs illimités, intégration sur mesure

Sur devis
  • Toutes fonctions Multi-LLM
  • Jusqu'à 30 LLMs
  • Requêtes illimitées
  • Support dédié
  • SLA personnalisé
Contacter les ventes

TVA non incluse | Facturation en CHF

Besoin d'un plan personnalise ? Contactez-nous

Protégez vos réponses IA

Activez Hallucination Guard avec votre abonnement Prompt Guard.