Shadow IA — Définition IT
L'usage d'outils d'intelligence artificielle générative par des collaborateurs sans validation ni supervision de la DSI ou des fonctions sécurité, juridiques et conformité.
Le Shadow IA (ou Shadow AI) désigne l'utilisation, par des collaborateurs, d'outils d'intelligence artificielle — au premier chef l'IA générative type ChatGPT, Claude, Gemini, Copilot, Midjourney, ainsi que les extensions navigateur, plugins, agents et copilots de code — sans validation, supervision ni encadrement de la DSI, du RSSI ou des fonctions conformité. C'est la transposition à l'ère de l'IA générative du phénomène déjà connu de Shadow IT, avec une intensité et un risque sensiblement supérieurs.
Le phénomène est massif et largement sous-estimé : selon le 2024 Work Trend Index publié par Microsoft et LinkedIn, 75 % des travailleurs du savoir utilisent déjà l'IA générative au travail, et 78 % d'entre eux apportent leurs propres outils (BYOAI), le plus souvent via des comptes personnels invisibles de la DSI (Microsoft & LinkedIn, mai 2024). Côté incidents, le Cost of a Data Breach Report 2025 d'IBM établit que 20 % des organisations ont déjà subi une violation de données liée au Shadow IA, pour un surcoût moyen de 670 000 USD par incident (IBM Security & Ponemon, 2025).
de travailleurs du savoir utilisent déjà l'IA générative au travail
Microsoft & LinkedIn 2024
des utilisateurs d'IA apportent leurs propres outils (BYOAI)
Microsoft & LinkedIn 2024
des organisations ont subi une fuite liée au Shadow IA
IBM Cost of a Data Breach 2025
de surcoût moyen par incident Shadow IA
IBM 2025
Qu'est-ce que le Shadow IA, concrètement ?
Le Shadow IA recouvre toute interaction métier avec un modèle d'IA non gouverné par l'IT : un commercial qui colle un deal memo dans ChatGPT pour le résumer, un développeur qui demande à Claude un correctif sur un bug en envoyant 200 lignes de code propriétaire, une assistante RH qui passe un contrat de travail dans Gemini pour le reformuler, une équipe marketing qui génère un visuel sur Midjourney à partir de la maquette confidentielle d'un futur produit.
L'enquête Promises and Pitfalls of AI at Work de Salesforce et YouGov (14 000 salariés, 14 pays) a mesuré que 40 % des utilisateurs d'IA générative ont déjà partagé des informations professionnelles sensibles avec ces outils, à l'insu de leur employeur, et que plus de la moitié des utilisateurs d'IA en entreprise le font sans approbation formelle (Salesforce/YouGov, 2023). KPMG arrive à des conclusions comparables côté États-Unis : 50 % de la main-d'œuvre utilise des outils IA au travail sans savoir si c'est autorisé, et 57 % des collaborateurs dissimulent leur usage de l'IA et présentent un travail généré par IA comme le leur (KPMG, août 2024).
Le phénomène n'est pas équivalent à l'usage d'IA en entreprise : ce qui le caractérise, c'est l'absence de gouvernance.
- •L'IA gouvernée : licences entreprise (ChatGPT Enterprise, Copilot for Microsoft 365, Claude for Work), modèles déployés sous contrat avec DPA, garanties de non-réutilisation des prompts pour l'entraînement, SSO et journalisation activés.
- •L'IA clandestine : comptes individuels gratuits ou perso payants, extensions navigateur installées sans validation, modèles open source téléchargés en local, plugins tiers branchés sur Slack/Notion/Teams, sites wrappers qui rappellent une API publique sans contrôle.
Shadow IT vs Shadow IA : un même phénomène, deux logiques de risque
Le Shadow IA reprend les mécanismes du Shadow IT — adoption bottom-up, contournement des achats, accès freemium — mais il en démultiplie les conséquences : les données ne sont plus seulement stockées chez un éditeur SaaS non répertorié, elles entraînent éventuellement un modèle, peuvent réapparaître dans la réponse fournie à un autre utilisateur, et sont résistantes au droit à l'effacement.
Pourquoi le Shadow IA explose
Cinq dynamiques structurelles alimentent l'adoption non gouvernée de l'IA en entreprise :
- •Gain de productivité immédiat: : selon AI at Work 2025 du BCG, les utilisateurs réguliers gagnent au moins 5 heures par semaine grâce à la GenAI (BCG, juin 2025). Demander à un collaborateur d'attendre que l'IT valide un outil revient à lui demander de renoncer à ce gain.
- •Accès freemium massif: : ChatGPT, Claude, Gemini, Copilot, Mistral Le Chat, Perplexity sont accessibles en quelques secondes depuis n'importe quel navigateur. Cyberhaven a observé une augmentation de 485 % du volume de données d'entreprise transitant par des outils d'IA entre mars 2023 et mars 2024, et 73,8 % de l'usage de ChatGPT au travail passe par des comptes non corporatifs (Cyberhaven, 2024).
- •Carence de formation et de politique: : ISACA mesure que seulement 15 % des organisations ont une politique IA formelle et que 40 % ne dispensent aucune formation IA (ISACA, 2024). McKinsey, de son côté, observe que seulement 18 % des organisations disposent d'un comité avec autorité décisionnelle sur la gouvernance IA responsable (McKinsey State of AI 2024).
- •Pression culturelle et anxiété professionnelle: : Microsoft mesure que 52 % des utilisateurs d'IA hésitent à reconnaître leur usage sur les tâches importantes et que 53 % craignent de paraître remplaçables s'ils admettent recourir à l'IA. La dissimulation devient un comportement rationnel pour le collaborateur.
- •Lenteur perçue de la DSI: : selon Software AG (enquête menée auprès de 6 000 knowledge workers), 33 % des employés justifient le Shadow IA par le fait que l'IT ne propose pas les outils dont ils ont besoin, et 46 % refusent de renoncer à leurs outils, même en cas d'interdiction explicite (Software AG, octobre 2024).
Quels outils, quels usages ?
Le Shadow IA ne se résume pas à ChatGPT. Le périmètre observé sur les déploiements clients de Netskope, Harmonic Security et Cyberhaven couvre au moins six catégories :
- •Chatbots LLM généralistes: : ChatGPT, Claude, Gemini, Copilot, Le Chat (Mistral), Perplexity, You.com.
- •Copilots de code: : GitHub Copilot personnel, Cursor, Codeium, Tabnine, Replit Agent, Aider.
- •Générateurs d'images & vidéo: : Midjourney, DALL·E, Stable Diffusion, Runway, Sora, Pika, Kling.
- •Transcription & notes: : Otter.ai, Fireflies, Granola, tl;dv, Read.ai, Whisper local.
- •Extensions navigateur & plugins: : Monica, Merlin, Harpa, ChatGPT Sidebar, ainsi que des dizaines de wrappers indiscernables des outils officiels.
- •Agents IA & frameworks: : AutoGPT, AgentGPT, Devin, Manus, Lindy, Make scenarios IA, n8n with LLM.
Selon Netskope Threat Labs, 94 % des organisations utilisent désormais des applications de GenAI, et 47 % des utilisateurs d'IA en entreprise utilisent des applications IA personnelles non gouvernées (Netskope, 2025). Le nombre médian d'applications GenAI distinctes par entreprise a triplé en un an, passant de 3 à 9,6 entre juin 2023 et juin 2024 (Netskope, 2024).
Les 8 risques majeurs du Shadow IA
### 1. Fuite de données confidentielles
C'est le risque le plus documenté. Selon Cyberhaven, 27,4 % des données qu'un employé soumet à un outil d'IA sont sensibles, contre 10,7 % un an plus tôt. Code source, données clients, deal memos M&A, contrats, données RH dominent. Harmonic Security, qui a analysé 22,4 millions de prompts d'entreprise, observe que 87 % des incidents de fuite de données sensibles passent par ChatGPT Free (compte personnel gratuit), et que les trois catégories de données les plus exposées sont le code source (~30 %), les documents juridiques (22,3 %) et les données M&A (12,6 %) (Harmonic Security, 2025).
### 2. Hallucinations et erreurs métier engageantes
Une IA générative peut produire un texte plausible mais factuellement faux. Deux jurisprudences récentes ont fait école :
- •Mata v. Avianca (SDNY, juin 2023): : les avocats Schwartz et LoDuca ont été sanctionnés à 5 000 USD pour avoir cité six décisions de justice fictives générées par ChatGPT dans une plainte (décision Justia).
- •Moffatt v. Air Canada (BCCRT, février 2024): : Air Canada a été condamnée à 650,88 CAD parce que son chatbot avait communiqué une politique tarifaire deuil qui n'existait pas. Le tribunal a rejeté l'argument selon lequel le chatbot serait "une entité juridique distincte" (décision CanLII). L'entreprise répond donc des sorties produites par les IA qu'elle expose, qu'elles soient officielles ou shadow.
### 3. Conformité RGPD et AI Act
L'autorité italienne de protection des données (Garante) a été la première autorité européenne à frapper : interdiction temporaire de ChatGPT en mars 2023 pour absence de base légale, défaut de transparence et absence de vérification d'âge, puis amende de 15 millions d'euros à OpenAI en décembre 2024 (Garante, 2024). Côté UE, le Règlement (UE) 2024/1689 (EU AI Act), entré en vigueur le 1er août 2024, impose dès le 2 février 2025 des obligations d'AI literacy et l'interdiction de certaines pratiques (manipulation, scoring social, etc.) qui s'appliquent y compris à des usages clandestins. La CNIL, en France, publie depuis 2023 un plan d'action IA et des fiches pratiques détaillant la conformité RGPD des systèmes d'IA.
### 4. Atteintes au droit d'auteur et fuite de secrets d'affaires
Le procès The New York Times Company v. Microsoft & OpenAI (SDNY, 1:23-cv-11195) déposé en décembre 2023 illustre les zones grises : le NYT démontre que ChatGPT reproduit verbatim des extraits de ses articles et demande la destruction des datasets d'entraînement (dossier CourtListener). Le risque symétrique pour l'entreprise : un secret d'affaires soumis à un modèle public peut perdre sa qualité de secret au sens du droit français et européen.
### 5. Sécurité technique des LLM (OWASP LLM Top 10)
Le projet OWASP GenAI Security maintient une liste de référence des vulnérabilités spécifiques aux LLM (OWASP Top 10 LLM Applications 2025) :
- •LLM01 Prompt Injection: : un utilisateur malveillant modifie le comportement du modèle via un texte injecté.
- •LLM02 Sensitive Information Disclosure: : le modèle révèle des données confidentielles présentes dans son contexte ou mémoire.
- •LLM03 Supply Chain: : risques liés aux modèles, datasets ou plugins tiers.
- •LLM05 Improper Output Handling: : sortie IA exécutée sans validation (XSS, SSRF, RCE).
- •LLM06 Excessive Agency: : agents IA dotés de droits trop larges sur les systèmes.
- •LLM07 System Prompt Leakage: (2025) : fuite des instructions confidentielles.
- •LLM10 Unbounded Consumption: : coût et latence dérivant via boucles d'agents.
### 6. Cybermenaces amplifiées
L'ENISA, agence européenne de cybersécurité, indique dans son Threat Landscape 2025 que plus de 80 % de l'activité d'ingénierie sociale observée début 2025 implique du contenu généré par IA, et que des acteurs étatiques exploitent ChatGPT, Gemini et des outils malveillants type WormGPT/FraudGPT (ENISA, 2025). Le rapport IBM 2025 confirme : 16 % des fuites de données ont impliqué des attaquants utilisant l'IA, dont 37 % via phishing IA et 35 % via deepfakes.
### 7. Coûts cachés et redondance d'outils
À l'instar du SaaS, les abonnements IA prolifèrent en parallèle : licences ChatGPT Plus payées individuellement, abonnements Midjourney sur cartes corporate, agents Notion AI activés en sus d'une licence Copilot déjà payée. La sous-couverture côté inventaire est complète tant qu'aucune découverte automatisée n'est en place.
### 8. Perte de visibilité opérationnelle
Selon le 2025 Cisco Cybersecurity Readiness Index, 60 % des organisations n'ont pas confiance dans leur capacité à identifier l'usage d'outils IA non approuvés, et 60 % n'ont aucune visibilité sur les prompts ou requêtes effectuées par leurs collaborateurs sur des outils GenAI (Cisco, 2025). Le Verizon DBIR 2025 va plus loin : sur les 15 % d'employés qui accèdent régulièrement à des outils GenAI depuis leur poste pro, 72 % utilisent un e-mail non corporate (Verizon, 2025).
Une décennie de Shadow IA en accéléré
Nov 2022
Lancement public de ChatGPT
Adoption massive en quelques semaines, sans aucun cadre d'entreprise.
Jan 2023
Amazon alerte ses salariés
Un juriste interne demande sur Slack de ne pas coller "any Amazon confidential information" dans ChatGPT.
Fév 2023
JPMorgan restreint ChatGPT
La banque interdit l'usage à l'échelle mondiale, suivie par Goldman Sachs, Citi, BoA, Wells Fargo, Deutsche Bank.
Mars 2023
Le Garante italien interdit ChatGPT
Première décision d'une autorité de protection des données européenne contre un LLM.
Avril 2023
Trois fuites Samsung en 20 jours
Code source, séquence de test, transcription de réunion soumis à ChatGPT par les ingénieurs de Samsung Semiconductor.
Mai 2023
Samsung & Apple bannissent l'IA publique
Le 2 mai : ban interne global chez Samsung. Le 18 mai : Apple restreint ChatGPT & Copilot.
Juin 2023
Mata v. Avianca
Premier sanction d'avocats pour citations fictives de jurisprudence générées par ChatGPT.
Janv 2024
ISO/IEC 42001 publiée
Première norme mondiale de système de management de l'IA.
Fév 2024
Air Canada condamnée
Le BCCRT établit que l'entreprise est responsable des hallucinations de son chatbot.
Août 2024
Entrée en vigueur de l'EU AI Act
Règlement (UE) 2024/1689 publié au JOUE le 12 juillet, applicable progressivement jusqu'en 2028.
Déc 2024
OpenAI sanctionné 15 M€ en Italie
Confirmation européenne du risque réglementaire sur les pratiques d'entraînement.
Fév 2025
Premières obligations EU AI Act
Interdictions de l'Article 5 + obligation d'AI literacy applicables.
Août 2025
Règles GPAI applicables
Obligations sur les modèles d'IA à usage général entrent en application.
Cadres de gouvernance applicables au Shadow IA
Quatre référentiels structurent aujourd'hui la gouvernance IA d'entreprise. Aucun n'est exclusif : la plupart des DSI les combinent.
- •[NIST AI Risk Management Framework (AI RMF 1.0)](https://www.nist.gov/itl/ai-risk-management-framework): (janvier 2023, États-Unis) — Cadre volontaire, agnostique sectoriellement, articulé autour de quatre fonctions :
- •[ISO/IEC 42001:2023](https://www.iso.org/standard/42001): (décembre 2023, international) — Première norme mondiale de système de management de l'IA (AIMS), certifiable, alignée sur la logique Plan-Do-Check-Act d'ISO 27001 et ISO 9001. Impose une évaluation d'impact, une gestion du cycle de vie et une supervision des fournisseurs tiers.
- •[EU AI Act — Règlement (UE) 2024/1689](https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai): (août 2024, Union européenne) — Approche par niveaux de risque (inacceptable / haut / limité / minimal). Sanctions allant jusqu'à 35 M€ ou 7 % du chiffre d'affaires mondial pour les pratiques interdites.
- •[OECD AI Principles](https://oecd.ai/en/ai-principles): (2019, mis à jour 2024) — Premier standard intergouvernemental, repris dans la plupart des cadres nationaux. Cinq principes : croissance inclusive, valeurs humano-centriques, transparence, robustesse, responsabilité.
Pour structurer une approche défendable, le NIST AI RMF est probablement le plus opérationnel :
- 1
Govern
Définir politiques, rôles, responsabilités IA. Cartographier les usages.
- 2
Map
Inventorier les outils IA en usage (officiels et shadow), identifier le contexte métier.
- 3
Measure
Quantifier les risques (sécurité, conformité, biais), évaluer les contrôles.
- 4
Manage
Prioriser, atténuer, surveiller en continu et faire évoluer la posture.
En France, la CNIL publie depuis 2023 des recommandations finalisées sur le développement des systèmes IA conformes RGPD, des fiches pratiques opérationnelles, et précise sa position sur l'intérêt légitime comme base légale possible, sous garanties.
Détecter le Shadow IA
Six méthodes complémentaires permettent de reprendre la main sur l'inventaire IA réel :
- •Logs SSO et identité: : recenser tous les domaines IA accédés via Okta, Azure AD, Google Workspace. Limites : les comptes personnels échappent par construction.
- •Découverte SaaS automatisée: : une plateforme de SaaS Management comme Kabeen croise SSO, logs réseau, signaux navigateur et données dépenses pour identifier en continu tout outil IA en usage, y compris payé en perso et remboursé en note de frais.
- •Extension navigateur / endpoint: : capter directement les requêtes vers les domaines IA depuis le poste utilisateur — c'est la seule façon de couvrir l'usage sur compte personnel.
- •DLP IA / CASB: : inspecter les requêtes sortantes pour détecter les patterns sensibles (clé API, code source, données personnelles) avant qu'ils ne quittent l'entreprise.
- •Analyse des dépenses: : factures cartes corporate, notes de frais, factures Stripe d'éditeurs IA — utile pour repérer les abonnements payés individuellement.
- •Sondages anonymes: : compléter la donnée comportementale par un sondage anonyme cadré. Combiné aux signaux techniques, il révèle l'écart entre l'usage déclaré et l'usage réel.
Construire une politique IA d'entreprise en 6 étapes
- 1
Découvrir
Inventaire continu des outils IA réellement utilisés, officiels et shadow.
- 2
Classifier
Catégoriser par niveau de risque (NIST AI RMF) et type de données traitées.
- 3
Approuver
Établir un catalogue d'outils IA validés, avec contrats DPA et garanties anti-réentraînement.
- 4
Encadrer
Politique d'usage, formation, sensibilisation, AI literacy (obligatoire EU AI Act).
- 5
Outiller
Déployer SSO, DLP IA, monitoring des prompts, CASB.
- 6
Mesurer
KPI continus : taux d'usage gouverné, incidents évités, ROI productivité.
Une politique IA défendable contient au minimum : un catalogue d'outils approuvés (et la procédure pour en faire ajouter un), une liste explicite des données interdites (PII, secrets d'affaires, code propriétaire si engagement client), un régime de revue des sorties pour les usages à enjeu juridique ou client, et un processus de signalement d'incident IA.
KPIs d'un programme Shadow IA
Pour piloter le programme, quelques indicateurs suffisent :
- •Taux d'usage gouverné: : part des utilisateurs IA passant par des outils approuvés et le SSO.
- •Volume de prompts sensibles bloqués: : sortie d'un DLP IA, en tendance hebdomadaire.
- •Couverture de formation AI literacy: : % de collaborateurs formés (obligation EU AI Act).
- •Incidents IA déclarés vs détectés: .
- •Coût IA par collaborateur actif: : à rapprocher du coût SaaS par utilisateur (TCO).
Gartner estime que plus de 40 % des organisations connaîtront un incident de sécurité ou de conformité lié au Shadow IA d'ici 2030, et que 75 % des collaborateurs acquerront, modifieront ou créeront de la technologie hors de la visibilité de l'IT à horizon 2027, contre 41 % en 2022 (Gartner, novembre 2025). Le Shadow IA n'est donc pas un pic transitoire : il devient l'état normal du système d'information.
Comment Kabeen aide à reprendre la main sur le Shadow IA
Kabeen prolonge sa plateforme de SaaS Management au cas du Shadow IA. La plateforme combine découverte SSO, signaux navigateur, données dépenses et inventaire des comptes IA pour livrer en continu :
- •un inventaire à jour des outils IA en usage (officiels et shadow),
- •une vue par utilisateur, équipe, application IA, et par niveau de risque,
- •une détection des comptes personnels utilisés à des fins professionnelles,
- •une base factuelle pour les revues sécurité, achats et conformité EU AI Act.
L'objectif n'est jamais d'interdire l'IA : c'est de rendre l'usage visible, d'orienter chaque collaborateur vers la bonne alternative gouvernée, et d'aligner le portefeuille IA avec le reste du portefeuille applicatif déjà piloté par la DSI.
Questions fréquentes
Qu'est-ce que le Shadow IA en termes simples ?
+
Le Shadow IA, c'est l'usage par des employés d'outils d'IA générative — ChatGPT, Claude, Gemini, Copilot, Midjourney, copilots de code, agents — sans validation ni supervision de la DSI. Concrètement : un commercial qui colle un deal memo dans ChatGPT, un développeur qui envoie du code propriétaire à Claude, une équipe marketing qui passe par Midjourney avec une maquette confidentielle. C'est la version IA générative du Shadow IT.
Quelle est la différence entre Shadow IT et Shadow IA ?
+
Le Shadow IT couvre les applications SaaS, scripts ou bases déployés sans l'IT. Le Shadow IA y ajoute une dimension propre : les données soumises à un modèle public peuvent être utilisées pour entraîner le modèle, réapparaître dans la réponse fournie à un autre utilisateur, et sont résistantes au droit à l'effacement RGPD. Le risque dominant passe des coûts cachés à la fuite de données, aux hallucinations engageantes et au droit d'auteur.
Quelle est l'ampleur réelle du Shadow IA en entreprise ?
+
Selon Microsoft & LinkedIn (2024), 75 % des travailleurs du savoir utilisent déjà l'IA générative au travail et 78 % d'entre eux apportent leurs propres outils. Cyberhaven mesure que 73,8 % de l'usage de ChatGPT au travail passe par des comptes non corporatifs, et Harmonic Security observe que 87 % des incidents de fuite de données sensibles passent par ChatGPT Free. Côté incident, IBM établit que 20 % des organisations ont déjà subi une violation de données liée au Shadow IA, pour un surcoût moyen de 670 000 USD par incident.
Quels sont les principaux risques du Shadow IA ?
+
Huit risques se cumulent : (1) fuite de données confidentielles (code, PII, M&A), (2) hallucinations engageantes (cf. Mata v. Avianca, Air Canada), (3) conformité RGPD et EU AI Act, (4) droits d'auteur et secrets d'affaires, (5) vulnérabilités techniques LLM (OWASP LLM Top 10) — prompt injection, output handling, excessive agency, (6) cybermenaces amplifiées (phishing IA, deepfakes), (7) coûts cachés et redondance d'outils, (8) perte de visibilité opérationnelle.
Comment détecter le Shadow IA dans mon entreprise ?
+
Six méthodes complémentaires : logs SSO et identité (Okta, Azure AD), découverte SaaS automatisée par une plateforme de SaaS Management qui croise SSO + signaux navigateur + dépenses, extension navigateur ou agent endpoint pour capter les requêtes vers les domaines IA, DLP IA / CASB pour inspecter les prompts sensibles, analyse des dépenses (notes de frais, cartes corporate), sondages anonymes pour mesurer l'écart entre l'usage déclaré et l'usage réel.
Que dit l'EU AI Act sur le Shadow IA ?
+
Le Règlement (UE) 2024/1689 est entré en vigueur le 1er août 2024. Depuis le 2 février 2025, les pratiques de l'Article 5 (manipulation, scoring social, etc.) sont interdites et toutes les organisations doivent assurer un niveau suffisant d'AI literacy à leurs collaborateurs. Les obligations sur les modèles d'IA à usage général (GPAI) s'appliquent depuis le 2 août 2025. Le règlement vise l'usage quel qu'il soit, gouverné ou non — le Shadow IA n'exempte donc pas l'entreprise de sa conformité.
Faut-il interdire ChatGPT et les outils similaires ?
+
Non, dans l'écrasante majorité des cas. Une interdiction sans alternative augmente la dissimulation : Software AG mesure que 46 % des utilisateurs refusent de renoncer à leurs outils, même en cas d'interdiction. La bonne posture est de proposer une alternative gouvernée (ChatGPT Enterprise, Copilot for Microsoft 365, Claude for Work, Gemini Enterprise, Mistral, etc.) couvrant les cas d'usage légitimes, d'éduquer les collaborateurs sur les données interdites, et d'outiller la détection des comptes personnels.
Quels cadres de gouvernance utiliser pour structurer le programme IA ?
+
Quatre référentiels structurent la gouvernance IA d'entreprise : (1) le NIST AI RMF 1.0 (Govern, Map, Measure, Manage) — opérationnel et agnostique sectoriel ; (2) la norme ISO/IEC 42001:2023, première norme mondiale d'AIMS, certifiable ; (3) l'EU AI Act, obligatoire dans l'UE ; (4) les OECD AI Principles, standard intergouvernemental. En France, les recommandations de la CNIL complètent le cadre RGPD.
Tous les termes
Méthode des 5R
Une stratégie utilisée lors de la rationalisation des applications pour déterminer la meilleure approche de gestion.
Méthode des 8R
Une version étendue de la méthode 5R utilisée dans la gestion du portefeuille d'applications et les stratégies de migration.
Application
Un programme informatique ou un ensemble de programmes conçus pour rationaliser les opérations commerciales.
Architecture
Réfère à la structure et au comportement des systèmes informatiques, des processus et de l'infrastructure au sein d'une organisation.
Besoin d'aide pour cartographier votre SI ?
Kabeen vous aide à inventorier, analyser et optimiser votre portefeuille d'applications.