30 milliards de dollars investis, 95% d'échecs. Les entreprises ont massivement parié sur leurs 'ChatGPT internes' pour contrôler leurs données. Deux ans plus tard, elles décommissionnent ces projets pour basculer sur Copilot ou Claude Enterprise. Autopsie d'un mirage collectif.
En janvier 2026, Société Générale a officiellement décommissionné SoGPT, son assistant IA interne lancé en grande pompe deux ans plus tôt. Pas pour un problème technique. Pas pour un incident de sécurité. Mais parce que maintenir un “ChatGPT maison” coûtait plusieurs millions d’euros par an — pour un outil dont l’écart avec les solutions du marché se creusait chaque mois.
Un scénario devenu banal. Dans la plupart des grandes entreprises, les collaborateurs utilisent déjà leurs abonnements personnels en parallèle des outils officiels.
Ce n’est pas un cas isolé. C’est l’épilogue d’une vague massive d’investissements qui a touché la plupart des grandes entreprises françaises et européennes entre 2023 et 2025.
“95% of generative AI pilots fail to deliver measurable financial impact.” « 95% des pilotes d’IA générative n’apportent aucun impact financier mesurable. » — Gartner, 2025
La ruée vers l’or : 2023-2024
Quand ChatGPT a explosé fin 2022, la réaction des directions a été immédiate : “Il nous faut le nôtre.” L’argument était séduisant : contrôler les données, garantir la conformité RGPD, personnaliser l’expérience pour les métiers.
En France, les initiatives se sont multipliées. 60% des grandes entreprises ont lancé un projet de “ChatGPT interne” entre 2023 et 2025. Les budgets ont suivi : équipes dédiées, infrastructure cloud, consultants spécialisés, POC qui s’éternisent.
Le discours était rodé :
- “On ne peut pas mettre nos données chez OpenAI”
- “On va créer un avantage compétitif”
- “C’est stratégique, on doit maîtriser la stack”
Résultat global ? 30 à 40 milliards de dollars investis dans des initiatives IA d’entreprise. Pour quel retour ? Dans 80% des cas en Europe, le projet n’atteint jamais la production.
Anatomie d’un “ChatGPT interne”
Démystifions le terme. Quand une entreprise dit avoir développé “son propre ChatGPT”, voici ce qu’elle a réellement construit dans 90% des cas :
La stack type :
- Une interface web (Streamlit, Gradio, ou React)
- Un proxy vers l’API OpenAI, Anthropic ou Azure OpenAI
- Un système RAG pour injecter des documents internes
- Une couche d’authentification SSO
- Du logging pour la conformité
C’est tout. Pas de modèle propriétaire. Pas d’entraînement custom. Juste une interface qui redirige vers les mêmes APIs que tout le monde.
| Ce qu’on promet | Ce qu’on livre |
|---|---|
| ”Notre propre IA” | Un proxy vers GPT-4/Claude |
| ”Modèle entraîné sur nos données” | Du RAG avec Pinecone |
| ”Solution souveraine” | Azure OpenAI (serveurs EU dans le meilleurs des cas) |
| “Avantage compétitif” | La même chose que le concurrent |
Le problème fondamental : Ces builds n’apportent aucune différenciation. L’IA générative est devenue une commodité. Construire un wrapper autour d’une API, c’est comme développer son propre client mail en 2026.
Pourquoi ça échoue : les 4 pièges
1. Le gouffre financier du “build”
Maintenir un assistant IA interne coûte cher. Très cher.
Prenons l’exemple d’une ETI de 300 collaborateurs — un cas représentatif du tissu économique français.
Coûts typiques annuels :
- Infrastructure cloud : 50-150k €
- Équipe dédiée (2-3 personnes) : 150-300k €
- Licences, tokens API, outils : 30-80k €
- Sécurité, compliance, audits : 20-50k €
Total : 250 à 600k €/an — pour un outil de chat “Maison”.
En face, un abonnement Copilot ou Claude Enterprise coûte 25 à 35 €/utilisateur/mois. Pour 300 collaborateurs : 90 à 130k €/an, tout compris. Mises à jour automatiques. Support inclus. Pas de MCO.
L’écart se creuse avec le temps. Quand GPT-5 ou Claude 4 sortent, les entreprises avec des builds internes doivent réadapter leurs pipelines — et surtout, elles n’ont pas accès aux nouvelles killer features (agents, computer use, intégrations natives). C’est là que ça fait mal. Les abonnés aux providers ? Ils en bénéficient en un clic.
2. Le shadow IT : quand vos employés vous devancent de 18 mois
Shadow IT, pour ceux du fond : ce sont tous les outils et services utilisés par les employés sans l’aval de la DSI. Ici, les abonnements perso à ChatGPT ou Claude payés en notes de frais (ou pas).
Pendant que les DSI passent 18 mois à “sécuriser le déploiement” de leur ChatGPT interne, les collaborateurs ont déjà trouvé leur solution.
Les chiffres sont édifiants :
- 47 à 68% des usages IA en entreprise se font en shadow IT
- Des employés paient leur abonnement Claude depuis plus d’un an pendant que leur boîte “réfléchit”
- Des données sensibles transitent quotidiennement par des comptes personnels
J’ai vu des équipes entières utiliser ChatGPT Plus sur leurs téléphones personnels pour contourner les restrictions du réseau d’entreprise. Le shadow IT n’est pas un risque futur — c’est la réalité actuelle.
À retenir : Chaque mois de délai dans le déploiement d’un outil officiel, c’est un mois de plus où vos données fuitent via des comptes personnels non contrôlés.
3. L’hésitation chronique
“Quel modèle choisir ? OpenAI ou Anthropic ? On-prem ou cloud ? RAG ou fine-tuning ?”
Des entreprises passent 6 à 12 mois à débattre de choix qui n’ont aucune importance stratégique. Le top 3 des providers (OpenAI, Anthropic, Google) est quasi interchangeable pour 95% des cas d’usage transverses.
Le vrai coût de l’hésitation :
- Shadow IT : chaque mois de délai, c’est un mois de données dans des comptes perso
- Obsolescence : le modèle que vous évaluez depuis 6 mois est déjà dépassé
- Budget : un POC qui s’éternise coûte plus cher qu’un abonnement Enterprise sur 3 ans
- Énergie : 47 réunions de cadrage pour finir par prendre Copilot comme tout le monde
Rappel : Un POC, c’est 6-8 semaines max, un périmètre étroit, un budget plafonné. Si ça traîne, c’est que le cadrage a foiré — ou que personne n’ose décider.
4. Le fantasme on-premise
Certaines entreprises, obsédées par la souveraineté, ont tenté le on-prem total : GPU farms internes, modèles open source (Llama, Mistral), inférence locale.
Cas observé : Un groupe aéroportuaire a monté une infrastructure GPU dédiée pour faire tourner Llama 70B en interne. Résultat après 8 mois :
- Inférence 2 à 5 fois plus lente qu’un appel API
- Modèle déjà obsolète (Llama 2 vs Llama 3)
- Coût total supérieur à 3 ans d’abonnement Enterprise
- Équipe épuisée par la maintenance
Le on-prem pour l’IA générative, c’est comme héberger ses propres serveurs mail en 2026 : techniquement possible, économiquement douteux, stratégiquement discutable — oui, certains le font encore, pour les bonnes ou pour les mauvaises raisons.
Cas emblématiques
SoGPT (Société Générale)
Lancé en 2024 comme vitrine de l’innovation IA bancaire. RAG sur documents internes, conformité stricte, interface custom.
Fin 2025 : Décommissionné. L’écart avec les outils marché (GPT-4 Turbo, Claude 3) était devenu trop grand. La maintenance mobilisait une équipe entière. Les utilisateurs préféraient leurs abonnements personnels.
Pivot : Microsoft Copilot, intégré nativement à l’écosystème Office/Azure déjà en place.
Les SaaS proxy inutiles
Un pattern récurrent : des entreprises paient un SaaS intermédiaire pour accéder aux modèles IA. L’argument commercial ? “Une interface unifiée”, “la flexibilité multi-modèles”, “la gouvernance centralisée”.
En pratique, pour du chat interne, c’est souvent absurde :
- Markup de 10-30% sur les tokens
- Latence ajoutée
- Point de failure supplémentaire
- Aucune valeur ajoutée par rapport à un abonnement direct
Nuance : Les vrais routeurs comme OpenRouter ont leur place — pour de la R&D, du benchmarking multi-modèles, ou des workflows complexes. Ce dont je parle ici, ce sont les SaaS qui ne font que proxier une API avec un abonnement mensuel et un dashboard en plus (du OpenWebUI avec un peu de peinture la plupart du temps). Autant aller directement chez le provider.
Le pivot pragmatique
En 2026, le mouvement est clair : les entreprises abandonnent leurs builds internes pour des solutions managées.
Pourquoi Copilot et Claude Enterprise gagnent :
| Build interne | Provider Enterprise |
|---|---|
| 12-18 mois de développement | Déploiement en semaines |
| Équipe dédiée permanente | Support inclus |
| Modèles qui vieillissent | Mises à jour automatiques |
| MCO coûteux | Coût prévisible |
| Fonctionnalités limitées | Écosystème complet |
La règle pragmatique :
- Transverse (Q&A, rédaction, synthèse) → Abonnement provider direct
- Spécifique métier (compliance, expertise pointue) → Build custom justifié (et encore, prenez le temps de vous faire conseiller)
- Critique et temps réel → Évaluer très sérieusement avant de se lancer
Insight : 80% des besoins IA en entreprise sont transverses. Se battre pour construire en interne ce que les providers font mieux, c’est de l’orgueil technique déguisé en stratégie.
Ce qui marche vraiment
Les projets IA qui réussissent partagent des caractéristiques communes :
1. Tester le provider d’abord, builder ensuite
Plutôt qu’un “ChatGPT pour toute l’entreprise”, commencez par tester un provider sur un cas d’usage précis :
- Support L1 : Copilot répond-il correctement à vos tickets types ? Non ? → POC custom.
- Juridique : Claude synthétise-t-il bien vos contrats ? Non ? → POC custom.
- Marketing : la génération de premiers jets fait-elle gagner du temps ? Non ? → POC custom.
Dans 80% des cas, le provider suffit. Dans les 20% restants, vous avez maintenant une vraie justification pour builder — pas juste une intuition.
2. Gouvernance anti-shadow dès le jour 1
Si votre outil officiel est moins bon que ChatGPT gratuit, personne ne l’utilisera. La solution n’est pas d’interdire — c’est de proposer mieux.
- Accès simple (SSO, pas de friction)
- Modèles récents (pas de GPT-3.5 en 2026)
- Formation des équipes
3. KPI financiers, pas techniques
“Nombre de requêtes” n’est pas un KPI mais “Temps économisé sur le processus X” en est un.
Mesurez l’impact métier :
- Réduction du temps de traitement
- Diminution des escalades support
- Accélération des cycles de validation
4. Human-in-the-loop pour les hallucinations
Et pour le contrôle qualité ? Une techno de pointe : des neurones biologiques.
L’IA générative hallucine. C’est structurel. Les projets qui réussissent intègrent une validation humaine sur les outputs critiques, plutôt que de promettre une fiabilité impossible.
La leçon est simple
Le mirage du “ChatGPT interne” aura coûté cher à beaucoup d’entreprises. Pas seulement en budget — en temps perdu, en talents épuisés, en opportunités manquées.
La leçon est simple : l’IA générative n’est pas un différenciateur technologique. C’est une infrastructure, comme l’email ou le cloud. Les gagnants ne sont pas ceux qui la construisent — ce sont ceux qui l’utilisent intelligemment pour résoudre de vrais problèmes métier.
Pendant que certains débattent encore du choix entre GPT et Claude, d’autres ont déjà automatisé une grande partie de leurs tâches administratives. La question n’est plus technique. Elle est organisationnelle.
- La majorité des pilotes IA n’atteignent jamais un impact financier mesurable
- Le shadow IT explose — vos données fuitent pendant que vous “réfléchissez”
- Les grands groupes pivotent : de SoGPT à Copilot, le mouvement est lancé
- Build interne = justifié uniquement pour du spécifique métier à forte valeur
- L’IA est une commodité : construire son propre wrapper n’apporte aucun avantage compétitif
