On assiste à une vraie ruée vers l’IA mais derrière l’enthousiasme, force est de constater que la prudence et la maîtrise ne sont pas toujours au rendez-vous. Chez Harington, nous constatons que nos clients internalisent leurs modèles pour des raisons louables de confidentialité, de souveraineté, de coûts ou de personnalisation des usages métier. Dans la réalité des projets, les modèles IA privés restent le plus souvent en mode POC… ou basculent en shadow IA.
44 % (des entreprises) ont déjà lancé des projets IA concrets, une hausse de 17 points en un an.
SROUCES 2025 : Baromètre les échos
Les bénéfices attendus de l’IA en entreprise ? Amélioration de la productivité / des processus internes, création de nouveaux produits ou service et accélération de la capacité d’innovation
Modèles privés non versionnés, dérive silencieuse, projets IA déployés sans tests systématiques, absence de logs d’exécution (traçabilité des prompts, des réponses et des anomalies) … et aucun registre conforme à l’AI Act pour encadrer tout cela.
Ce n’est pas la technologie qui fait défaut aujourd’hui, c’est la gouvernance. Et d’expérience, dans la tech, ce que l’on ne voit finit toujours par coûter très cher.
Tout le monde parle d’IA souveraine et d’AI Act, mais qui s’attaque vraiment à la réalité des modèles privés ? Shadow IA, absence totale de logs, dérives silencieuses, jailbreaks qui reviennent en redéploiement. Chez Harington, nous nous attaquons à ces sujets de front avec une approche unique : gouvernance rigoureuse, red teaming continu et LLMOps industriels. C’est cela, la vraie sécurité des IA privées, maîtrisée de bout en bout. Anis Bessa, Directeur Harington OS
Les modèles privés sont-ils plus sûrs que les modèles publics ?
Pas forcément.
L’argument “on-prem donc sécurisé” séduit mais il ne passe l’épreuve du premier audit un peu sérieux ! Qu’on se le dise, Un modèle IA privé, surtout sans politique de sécurité formalisée, est même moins bien protégé qu’un modèle public car moins moins observable, moins testé et très rarement soumis à du red teaming.
Un modèle IA privé, sans politique de sécurité dédiée, est dans les faits vulnérable. Les LLM privés manipulent et recomposent des blocs de données internes (parfois avec des données sensibles) qui peuvent être involontairement reconstruits si aucun garde-fou n’est en place. Un modèle IA privé est un système particulièrement critique.
Voici les risques les plus fréquents :
1. Prompt injection
C’est comme un cheval de Troie conversationnel ou un parasite qui passe outre les instructions du modèle et lui fait exécuter ce qu’il n’est pas censé faire : révéler des informations internes, changer de comportement, contourner ses propres garde-fous … sans déclencher la moindre alerte à qui que ce soit, ni côté système, ni côté humain.
3. Data poisoning : Attaques sur les données d’apprentissage
C’est un peu comme du sabotage ! L’attaquant injecte des données biaisées ou toxiques dans le corpus d’entraînement. Résultat, le modèle apprend de fausses vérités ce qui compromet ses réponses. Empoisonné à la source en somme et toujours sans alerter.
4. Jailbreaks persistants
Là encore, c’est l’art de contourner les garde-fous du modèle en le poussant à produire ce qu’il ne devrait pas : données sensibles, instructions internes, réponses interdites ou hors cadre légal. Une faille de ce type peut survivre à chaque redéploiement si elle n’est pas corrigée.
5. Exfiltration via les API
Un LLM exposé par API est une porte ouverte si la sécurité est faible : tokens partagés, faible système d’authentification, pas de cloisonnement ou de logs. L’attaquant teste les réponses à ses requêtes… et siphonne les données internes. Et toujours pas d’alerte.
6. Réidentification de données sensibles
Même anonymisées, certaines données peuvent être réassemblées par le modèle. Un LLM privé peut révéler des informations confidentielles « en recollant les morceaux » s’il n’est surveillé…
La dérive (drift), cet ennemi en embuscade dans les modèles intégrés au SI
Une fois les modèles déployés dans le SI, ils ne vivent pas en laboratoire, ils évoluent dans un écosystème changeant. Même s’ils fonctionnaient parfaitement en tests, ils peuvent se mettre à, produire des résultats dangereux ou complètement incohérents. Changement dans les process internes, données sources modifiées, nouveaux outils métiers, montée en charge du volume de requêtes … et même parfois la nature des données elle-même. C’est ce qu’on appelle le Drift. Les données en production n’ont plus les mêmes caractéristiques que celles utilisées à l’entraînement. Et soudain, le modèle se met à répondre à côté, il « dérive » lentement, silencieusement sans que personne comprenne pourquoi.
Les modèles IA doivent être impérativement instrumentés.
Latence, équité, PSI (Population Stability Index), KS (test Kolmogorov-Smirnov / scoring), réévaluation périodique, ré-entraînement maîtrisé ; sans monitoring continu, votre LLM est une bombe à retardement.
Biais, toxicité et dérives, le risque N°1 pour les DSI
Avec l’AI Act, les organisations doivent détecter, documenter et surtout neutraliser les biais, les dérives et les comportements à risques de leurs modèles. L’obligation réglementaire commence à s’appliquer et sera pleinement effective très bientôt. C’est aussi un enjeu réputationnel de taille.
Pourtant, dans les faits, peu d’entreprises évaluent réellement la robustesse de leurs LLMs :
- Les hallucinations métiers sources d’erreurs opérationnelles
- Le traitement des données sensibles
- Le potentiel de réponses culturellement inappropriées, discriminantes ou stéréotypées
- Le bais statistique dans les décisions automatisées
Le risque n’est pas que technique, il est désormais réglementaire mais aussi éthique et il impacte directement l’image de l’entreprise.
Le modèle de gouvernance, un impondérable pour la conformité AI Act
Sans un modèle de gouvernance, même un LLM privé (interne, souverain, on-premise) peut être non conforme et donc inopérable.
Et force est de constater qu’aujourd’hui la plupart des DSI n’ont pas mis en place une véritable gouvernance de leurs modèles IA. Pas de registre versionné pour savoir quel modèle est en production ni de journal d’explicabilité, peu de rapports d’évaluation et les tests de pré-déploiement sont rarement standardisés.
Pourtant, l’AI Act est on ne peut plus explicite. Les entreprises devront tracer finement chaque exécution, garantir une transparence totale sur le fonctionnement des modèles, documenter précisément les jeux de données utilisés, fournir une explicabilité proportionnée au niveau de risque… et assurer un suivi continu de la performance dans le temps.
Alors que le RGPD a mis presque 20 ans à s’imposer, il est vrai que la législation européenne n’a pas trainé ! Il faut dire qu’au-delà de la technologie elle-même, le sujet est sensible car il peut représenter des atteintes à la liberté, à la souveraineté, à l’éthique et à la sécurité. L’IA fait peur. La contrôler n’était pas une option.

Un modèle seul n’est jamais sécurisé, le système IA si.
Sécuriser un LLM ne se limite pas à protéger le modèle, il faut penser système IA.
- Contrôle d’accès : qui peut utiliser l’IA avec quels droits ?
- Policies de prompts : que peut-on lui demander (ou pas) ?
- Filtrage sémantique : que laisse-t-on passer comme entrée/sortie ?
- Monitoring des réponses : que produit réellement l’IA en conditions réelles ?
- Gestion des secrets : comment sont protégées les clés, tokens et accès internes ?
- Red teaming régulier : comment teste-t-on les contournements et attaques ?
- Sandbox d’entraînement : un espace isolé pour tester sans contaminer le SI
Notre démarche pour sécuriser l’IA privée
Chez Harington, nous ne résumons pas la sécurisation d’un modèle IA à son algorithme. Les données utilisée, les usages qui en sont faits, la gouvernance, la conformité règlementaires, les dérives à appréhender ; tout doit être pris en compte. Maîtriser votre modèle IA suppose qu’il soit versionné, documenté, testé, évalué, surveillé, explicable et conforme. Comme finalement tout produit logiciel.
Vulnérabilité modèle IA
Nous évaluons la surface d’attaque réelle via un red teaming avancé : prompt injections, exfiltration, jailbreaks persistants, toxicité… pour identifier les failles avant la mise en production.
Risques de détive
Nous mettons en place un monitoring avancé du drift (PSI, KS, analyse par segments) et des métriques de robustesse dans le temps.
Gouvernance IA
Pour être en conformité avec l’AI Act et aux bonnes pratiques de manière plus générale ; nos équipent prennent en charge le registre versionné, le pipeline de promotion des modèles sur les phases (développement, tests, pre-prod, MEP), l’auditabilité, MLOps/LLMOps.
Sécurité applicative
Nos consultants cybersécurité mettent en œuvre des guardrails, le filtrage sémantique et les politiques de prompts.
Vous internalisez des modèles IA ? Et si on allait ensemble au-delà du POC ?
Harington accompagne les DSI, CDO et équipes data dans la sécurisation, la gouvernance et l’industrialisation des IA privées ; sans alourdir les cas usages, ni freiner l’innovation.
Audit, red teaming, gouvernance, dérive, conformité AI Act : Contactez-nous.
Vous avez besoin de renfort dans vos équipes ou d’un devis pour un nouveau projet ?
Nous vous proposons des prestations en assistance technique, en régie forfaitisée ou au forfait avec des engagements forts en termes de délais et de budget.
Questions fréquences
Un jailbreak, dans le contexte des IA génératives (LLM), est une méthode utilisée pour contourner les garde-fous, règles de sécurité ou limitations imposées au modèle.
En cybersécurité, le red teaming consiste à simuler des attaques pour identifier les failles. Pour l’IA, c’est la même logique mais appliquée aux comportements du modèle.
Le Population Stability Index un indicateur utilisé pour mesurer si la distribution des données a changé au fil du temps, autrement dit, pour détecter du drift.
Le Kolmogorov-Smirnov est le nom test statistique qu’il utilise pour évaluer la performance et la stabilité d’un modèle de scoring. Il sert à détecter les dérives de l’IA.
En savoir plus

L’IA privée progresse dans les entreprises, mais la sécurité et la gouvernance ne suivent pas. Dérive, biais, exfiltration, non-conformité AI Act : voici les risques réels et les leviers pour garder le contrôle, sans freiner l’innovation.

La modernisation SI permet de : réduire la dette technique, automatiser, sécuriser, intégrer l’IA, rendre le SI composable et cloud-ready… Harington revient les enjeux des DSI, les méthodes et les architectures pour transformer un SI legacy en plateforme d’innovation durable.

