La gouvernance des données en Italie : défis, ADD et avenir stratégique

Données : Défis et solutions pour les entreprises italiennes

À l'ère de la transformation numérique, les données sont devenues l'actif le plus précieux pour les entreprises de chaque secteur. La capacité de recueillir, de traiter, d'analyser et, surtout, de gouverner cette information est maintenant au cœur de toute stratégie réussie. Cependant, une étude récente réalisée par Denodo en collaboration avec IKN Italie a révélé une situation préoccupante pour le paysage commercial italien: un pourcentage important d'entreprises manque encore de chiffres structurés de gestion et de gouvernance des données. Cette lacune n'est pas seulement un problème opérationnel, mais un véritable obstacle à la pleine réalisation des données potentielles, mettant les entreprises devant des défis complexes allant de la mauvaise qualité des données à la difficulté de générer des informations fiables et en temps opportun. Cet article vise à explorer en profondeur les défis qui se dégagent de cette recherche, en analysant l'impact de la déficience du directeur général des données, la déconnexion entre les activités et les TI et les conséquences de la mauvaise qualité des données. Nous explorerons des solutions émergentes, de la virtualisation des données à des architectures plus avancées comme Data Fabric et Data Mesh, et le rôle transformateur des technologies du cloud et de l'intelligence artificielle. L'objectif est de tracer une voie claire pour les entreprises italiennes vers une gestion des données plus agile, sûre et axée sur la valeur, qui est fondamentale pour concurrencer un marché de plus en plus dynamique et axé sur les données, où la rapidité de décision et la pertinence de l'information peuvent déterminer le succès ou l'échec de l'entreprise. Comprendre ces dynamiques est la première étape pour construire un avenir dans lequel les données ne sont pas seulement une accumulation, mais un véritable moteur stratégique.

Il Panorama Italiano e la Crisi della Data Governance: Une analyse approfondie

La recherche Denodo a mis en évidence une réalité dans laquelle, en Italie, 29% des entreprises n'ont pas encore de personne qui s'occupe spécifiquement de la gouvernance des données. Un chiffre alarmant, qui reflète une perception encore incertaine des données comme un atout stratégique fondamental. Seulement moins de deux entreprises sur dix (les 19 %) peuvent se vanter d'avoir un directeur général des données (DCE) dans leur propre personnel, alors que dans la plupart des cas (26 %) la fonction de gouvernance est déléguée au directeur général de l'information (DPI), elle est si proche, mais surtout axée sur l'infrastructure technologique plutôt que sur l'amélioration stratégique des données. Cette délégation peut conduire à une gestion insuffisante, car le CIO est souvent obéit par des tâches liées aux opérations informatiques et peut ne pas avoir la vision ou les compétences spécifiques pour relever les défis complexes de la gouvernance des données, qui comprennent des aspects juridiques, éthiques, de qualité et de stratégie d'entreprise. L'absence d'un rôle spécifique et bien défini expose les entreprises à un certain nombre de risques importants, y compris des inefficacités opérationnelles, des coûts cachés dus à des données peu fiables, des difficultés à se conformer à des réglementations de plus en plus strictes telles que le RGPD, et surtout une incapacité substantielle à tirer le maximum des énormes quantités de données produites quotidiennement. Dans une économie mondiale de plus en plus compétitive et axée sur les données, ne pas avoir une gouvernance robuste et proactive des données signifie se condamner à un désavantage concurrentiel. Les décisions d'affaires, de la définition des stratégies de marketing à l'optimisation de la chaîne d'approvisionnement, de la personnalisation de l'expérience client à l'atténuation des risques financiers, dépendent intrinsèquement de la qualité, de l'accessibilité et de l'intégrité des données. En l'absence d'un guide clair et d'une structure organisationnelle qui appuie sa gestion, les données restent isolées dans les cloisons, leur qualité se dégrade et leur renseignement potentiel reste inexprimé, se transformant en une charge. Cette situation met en évidence non seulement une lacune opérationnelle, mais aussi une véritable crise stratégique que les entreprises italiennes doivent résoudre d'urgence pour rester pertinentes et innovantes dans la scène numérique contemporaine, où le volume, la vitesse, la variété et la véracité des données (appelées «4 V du Big Data) continuent de croître de façon exponentielle, rendant la gouvernance plus complexe mais aussi plus critique que jamais.

Déconnection des entreprises et des TI: obstacles au traitement des données

L'un des aspects les plus critiques mis en évidence par la recherche Denodo est la profonde déconnexion qui persiste entre les besoins opérationnels et les capacités informatiques en matière de gestion et de livraison des données. Les 23% des entreprises italiennes se plaignent de longs délais d'attente avant de disposer des données requisespendant la période 19% souffrent de dispersion et d'isolement des données au sein de différentes structures d'entreprise. Ces chiffres ne sont pas de simples statistiques, mais des manifestations d'un problème systémique qui freine l'agilité opérationnelle et stratégique des entreprises. L'entreprise, mue par la nécessité de réagir rapidement à la dynamique du marché, de personnaliser l'offre aux clients et d'optimiser les processus, nécessite un accès facile, rapide et autonome à des informations fiables. D'autre part, les TI gèrent souvent des infrastructures anciennes complexes, des ressources limitées et des contraintes technologiques qui rendent la livraison rapide de données propres et intégrées. Cette embrayage génère un cercle vicieux: l'entreprise, frustrée par les retards, utilise des solutions "ombre" (ombre IT), en créant ses propres ensembles de données et analyses qui manquent souvent de rigueur, de cohérence et de gouvernance, de fragmentation croissante et de complexité globale. Les données restent piégées dans les silos ministériels – qu'il s'agisse de feuilles Excel, de bases de données locales ou de systèmes d'applications spécifiques – ce qui rend presque impossible une vision unique et holistique de l'activité du client ou de l'entreprise. L'absence d'un point d'accès unique et d'une sémantique partagée transforme la recherche d'informations pertinentes en une véritable chasse au trésor, consommant un temps précieux et sapant la confiance dans les données elles-mêmes. Cette inefficacité entraîne non seulement des coûts d'exploitation plus élevés, mais aussi des décisions sous-optimales, la perte de débouchés commerciaux et une faible capacité d'innovation. La déconnexion entre ceux qui produisent des données et ceux qui doivent les utiliser stratégiquement n'est pas un simple problème technique, mais un défi organisationnel et culturel qui nécessite un réalignement des objectifs et une redéfinition des rôles, avec la TI qui, en tant que fournisseur d'infrastructure, devient facilitateur et facilitateur du renseignement d'entreprise, et l'entreprise qui développe une meilleure connaissance des sources et de la qualité des données qu'elle utilise pour sa propre analyse.

Le rôle stratégique du dirigeant principal des données : Architecte de la transformation des données

La faible présence d'un Directeur général des données, trouvé dans 19% des entreprises italiennes, est l'un des signes les plus évidents d'une approche pas encore mûre pour la gestion des données. Alors que 26 % des entreprises confient cette tâche au CIO, il est essentiel de comprendre que, bien qu'il y ait des chevauchements, le rôle de l'ODC est distinct et complémentaire, mais surtout *repensable* pour naviguer dans l'ère des données. Le DPI est traditionnellement axé sur l'infrastructure technologique, la connectivité, la sécurité des systèmes et l'efficacité opérationnelle des TI. Toutefois, l'ODC a pour mandat principal de : Maximiser la valeur des données en tant qu'actif stratégique de l'entreprise. Il s'agit de définir la stratégie en matière de données, d'établir des politiques de gouvernance (de la qualité à la protection de la vie privée, de la sécurité à l'éthique), de promouvoir une culture axée sur les données et de favoriser l'innovation par une analyse et une utilisation intelligentes de l'information. L'ODC est l'architecte qui construit le pont entre la technologie et les objectifs commerciaux, assurant que les données sont non seulement accessibles, mais aussi fiables, conformes et prêtes à être transformées en idées exploitables. Ses responsabilités vont de la création d'un catalogue de données d'entreprise à la supervision de projets d'intégration, de la définition de l'ICP pour la qualité des données à la gestion du cycle de vie complet de l'information. Il ne s'agit pas d'un rôle purement technique, mais d'une combinaison unique de vision stratégique, de compréhension approfondie des affaires, de compétences en leadership et d'une solide connaissance des technologies habilitantes. Un CDO efficace travaille transversalement avec l'organisation, collaborant avec toutes les fonctions pour identifier de nouvelles possibilités fondées sur les données et pour résoudre les défis liés à leur gestion. Sa présence est cruciale pour surmonter la déconnexion entre l'entreprise et l'informatique, agissant comme catalyseur d'une approche holistique des données qui imprègne chaque niveau de décision de l'entreprise. Investir dans un OEC signifie investir dans sa capacité à prendre des décisions plus éclairées, à optimiser les opérations, à innover des produits et des services et à créer un avantage concurrentiel durable dans un marché en constante évolution, où la rapidité et l'exactitude de l'information sont essentielles à la fois. L'ODC n'est pas un luxe, mais un besoin stratégique pour toute entreprise qui aspire à être vraiment axée sur les données.

Qualité des données telles que Pilar fondamentale: impact et stratégies

La recherche Denodo a révélé que84 % des entreprises estiment que la diversité des sources de données nuit à la qualité de l'analyse. Ces données sont emblématiques d'un défi central : la mauvaise qualité des données n'est pas un problème technique isolé, mais un obstacle stratégique qui sape la confiance, ralentit les opérations et compromet les décisions à tous les niveaux. La qualité des données ne se limite pas à l'exactitude, mais est un concept multidimensionnel qui comprend : exhaustivité (toutes les informations nécessaires sont présentes? ), cohérence (Les données sont-elles uniformes entre les différentes sources? ), validité (Les données respectent-elles les formats et valeurs par défaut? ), respect des délais (Les données sont-elles mises à jour? ), Unicité (Il n'y a pas de duplicata? ) intégrité (Les relations de données sont-elles correctes? ). Quand un ou plusieurs de ces aspects échouent, les conséquences se font sentir dans chaque secteur d'activité. Pensez à un CRM avec des adresses clients dupliquées ou erronées: les campagnes de marketing deviennent inefficaces, la communication échoue, l'expérience client dépend, et la réputation de l'entreprise peut être compromise. Dans les processus opérationnels, les données d'inventaire inattendues peuvent entraîner des ruptures excessives des stocks ou des ruptures de stocks, entraînant des inefficacités et des pertes. Sur le plan stratégique, les prévisions de ventes fondées sur des données historiques peu fiables peuvent conduire à des décisions de production ou d'investissement incorrectes, avec des répercussions financières importantes. Les secteurs les plus touchés, selon les recherches, sont ceux liés aux clients (25 %), aux activités commerciales (24 %) et aux ventes (20 %), domaines où la qualité des données est directement liée à la prévision et à la définition des stratégies du marché. Pour relever ce défi, il est essentiel d'adopter une approche proactive gestion de la qualité des données (DQM). Cela comprend le profilage des données pour identifier les problèmes critiques, la définition des règles de validation, la mise en œuvre des processus de nettoyage et d'enrichissement, et l'adoption de solutions Master Data Management (MDM) pour créer une source unique de vérité pour les entités critiques (clients, produits, fournisseurs). La qualité des données n'est pas un projet ponctuel, mais un processus continu qui exige un suivi, une gouvernance et un engagement constants de l'ensemble de l'organisation. Ce n'est qu'alors que les données pourront être transformées à partir de sources potentielles d'erreurs de pilier fiables pour la croissance et l'innovation des entreprises.

Virtualisation des données : un pont vers l'agilité et la démocratisation

Face aux défis de fragmentation, aux longs délais d'attente et à la mauvaise qualité des données, une solution technologique gagne du terrain : virtualisation des données. La recherche Denodo souligne que bien 61% des entreprises italiennes envisagent l'adoption de ces technologies résoudre les défis inhérents à l'intégration et à la gestion du patrimoine de l'information. Mais quelle est exactement la virtualisation des données et pourquoi est-elle considérée comme une solution aussi prometteuse? En résumé, la virtualisation des données crée une vue logique unifiée et en temps réel de toutes les sources de données d'entreprise, quel que soit leur emplacement (sur site, cloud), leur format (structuré, non structuré) ou leur complexité. Au lieu de déplacer physiquement les données vers un entrepôt de données ou un lac de données pour les intégrer (processus lent et coûteux), la virtualisation laisse les données là où elles résident à l'origine et crée un niveau d'abstraction qui les rend accessibles comme si elles étaient dans un dépôt unique. Les avantages sont multiples et profondément impactant pour les entreprises. Tout d'abord,agilité: l'entreprise peut accéder aux données requises dans des délais considérablement réduits, dépassant les longs délais d'attente. Deuxièmement, démocratisation: virtualisation facilite une approche en libre-service, permettant aux utilisateurs d'affaires de questionner et d'analyser les données de manière indépendante, sans dépendance constante vis-à-vis de l'informatique pour les rapports. La plate-forme de virtualisation sert de point d'accès unique, où les données peuvent être modélisées, enrichies et mises à disposition dans des formats compréhensibles et cohérents pour les utilisateurs finaux. Cela contribue de manière significative à améliorer Qualité générale des données présentées, puisque les règles de transformation et de gouvernance peuvent être appliquées de manière centralisée. De plus, en réduisant le besoin de reproduire des données, vous obtenez économies réalisées le stockage et l'infrastructure et minimisent les risques de sécurité et de conformité, les données originales demeurant protégées dans leurs sources. La virtualisation des données ne remplace pas les entrepôts de données ou les lacs de données, mais plutôt un complément qui les rend plus efficaces, agissant comme une interface logique puissante qui orchestre l'accès et l'intégration de toutes les sources, y compris celles qui résident dans des environnements complexes tels que le nuage ou les systèmes existants, permettant un véritable écosystème flexible axé sur les données et réceptif à l'évolution constante des besoins des entreprises, et assurant un retour plus rapide des investissements.

Beyond Data Lake: Evolution vers le tissu de données et le mesh de données

Si la virtualisation des données est une étape fondamentale vers l'agilité, le paysage de l'architecture des données évolue constamment, allant bien au-delà de l'entrepôt de données et du lac Data. La recherche Denodo note que l'adoption de Données Le lac n'est pas encore répandu dans les entreprises italiennes, avec plus d'un tiers des organisations (39 %) qui n'en possèdent pas. Bien que les lacs Data aient promis une grande souplesse dans le stockage de grands volumes de données brutes en format natif, ils se sont souvent transformés en « marais de données » – marécages de données non gouvernés, difficiles à découvrir et à utiliser efficacement. Pour surmonter ces limites et répondre à la complexité croissante des sources de données et aux différents besoins des utilisateurs, des concepts plus avancés comme Tissu de données et les Date Mesh. Les Tissu de données est une plateforme holistique de gestion des données, une architecture intégrée et intelligente qui vise à unifier la gestion des données dans des environnements hétérogènes (sur site, multi-cloud, bord) par l'automatisation, l'IA et l'apprentissage automatique. Son objectif est de fournir une vision intégrée des données, en facilitant leur découverte, leur accès et leur gouvernance, quel que soit leur emplacement physique. Ce n'est pas un produit, mais un modèle architectural qui arrange différentes technologies – y compris la virtualisation des données – pour créer un écosystème de données cohérent et autonome, permettant aux entreprises de gérer les données de manière plus efficace, évolutive et sécurisée. D'autre part, Date Mesh représente un changement plus radical, non seulement technologique, mais aussi organisationnel et culturel. Il s'agit d'une architecture décentralisée qui traite les données comme des produits, attribuant la propriété des données à des équipes de domaine spécifiques (p. ex. équipes client, équipes de produits), qui sont responsables de fournir des données de haute qualité, documentées et facilement consommables d'autres équipes. Les quatre principes fondamentaux de Data Mesh sont les suivants: propriété par domaine, données en tant que produit, une plate-forme de libre-service pour les données et une fédération gouvernance informatique. Cette approche vise à surmonter les goulets d'étranglement des équipes de données centralisées et à donner plus d'autonomie aux équipes d'affaires, en accélérant l'innovation. Data Fabric et Data Mesh tentent de résoudre les problèmes d'isolement et de lenteur des données mis en évidence par la recherche Denodo, offrant des cadres plus agiles et évolutives pour la gestion des actifs d'information dans un contexte de données distribué et diversifié. La virtualisation des données peut jouer un rôle clé dans ces deux paradigmes, fournissant le niveau d'abstraction nécessaire à l'intégration et à l'accès aux données d'une manière cohérente et régie, facilitant le passage d'une approche monolithique à une donnée plus distribuée et orientée vers la valeur.

Cloud, Intelligence artificielle et Impact de la gestion des données : nouvelles opportunités et nouveaux défis

L ' accélération vers Nuage est un fait pour les entreprises italiennes, avec plus de quatre entreprises sur cinq (84 %) affirment avoir une initiative Cloud. Cependant, seulement 29% indiquent qu'ils ont plus de la moitié de leurs données dans le nuage, confirmant que la migration en est encore aux stades initiaux mais croissants. Le cloud offre des avantages indéniables pour la gestion des données : évolutivité illimitée, flexibilité, accès aux services gérés et, surtout, aux plateformes Intelligence artificielle (IA) et apprentissage automatique (ML) dernière génération. Ces technologies, de plus en plus intégrées dans les offres en nuage, promettent de révolutionner l'analyse des données, l'automatisation des processus et la production de perspicacité. AI, en particulierGénération IA, capte l'attention pour sa capacité à créer du contenu, optimiser la recherche et même interagir avec les données de nouvelles manières, comme suggéré par le concept de «zéro clic à zéro caisse» dans le marketing. Toutefois, l'enthousiasme pour l'IA doit être équilibré par une approche pragmatique, comme l'indique le marché, qui a dépassé la phase hype. Les entreprises font face à des risques concrets, tels que les « hallucinations » (réponses plausibles mais fausses) et la fragilité de la chaîne d'approvisionnement des données qui alimentent ces modèles. L'importance fondamentale de gouvernance des données: une AI n'est efficace que lorsqu'elle est alimentée par des données de haute qualité, contrôlées, sûres et fiables. Sans base de données solide, l'IA devient une source de risque au lieu de valeur, amplifiant les erreurs et les inefficacités déjà présentes. Le concept de «Business AI», promu par des entreprises comme SAP (cité dans l'article), souligne la nécessité d'une AI basée sur des données faisant autorité, intégrée dans les processus commerciaux existants et contrôlés par des mécanismes tels que RAG (Retrieval Augmented Generation), qui combinent la puissance des modèles générateurs avec l'exactitude des sources de données internes vérifiées. L'interruption du service AWS (qui se produit dans des contextes similaires) sert d'avertissement : la dépendance au cloud nécessite une robuste résilience, des stratégies de sauvegarde et, éventuellement, une approche multicloud pour atténuer les risques. L'intégration du cloud et de l'IA n'est pas seulement une tendance technologique, mais une transformation stratégique qui nécessite une refonte totale de la gestion des données, mettant la gouvernance et la qualité au centre pour libérer le véritable potentiel innovant de ces technologies et transformer les données en un moteur de croissance durable et sécurisé.

L'autonomie des données et la culture axée sur les données : vers l'autonomie et l'innovation

La volonté d'une plus grande agilité et d'une plus grande facilité dans le chemin qui apporte des données à ceux qui doivent l'analyser est un besoin évident ressorti de la recherche Denodo, avec une forte demande pour être en mesure de travailler de façon indépendante et développer une approche de l'analyse et de la consommation des données en libre-service. Bien que le libre-service des données soit maintenant une réalité consolidée, la recherche révèle que dans la plupart des cas (65 %) les TI conservent un rôle important de supervision, et seulement 19 % des entreprises adoptent un libre-service complet où les entreprises opèrent de façon indépendante. Cette prudence est compréhensible : l'octroi d'une pleine autonomie sans garde-corps adéquat peut entraîner le chaos, des incohérences et des risques pour la sécurité. Toutefois, un libre-service efficace est la clé pour démocratiser l'accès aux données et accélérer la prise de décisions. Pour obtenir un véritable libre-service des données, il est nécessaire d'équiper les utilisateurs commerciaux non seulement des bons outils (plates-formes intuitives de Business Intelligence, interfaces de virtualisation conviviales, catalogues de données pour la découverte de données), mais aussi de compétences et les culture nécessaire pour les utiliser de manière responsable et significative. La formation à la littératie des données est essentielle : les utilisateurs doivent comprendre les sources de données, leurs définitions, les paramètres et les implications de leur analyse. Dans ce scénario, l'informatique évolue de la fonction de gardien de porte à la fonction d'habilitation, fournissant l'infrastructure, les outils et la gouvernance qui permettent à l'entreprise d'explorer les données en toute sécurité. Ce passage nécessite une transformation culturelle qui imprègne l'ensemble de l'organisation, en favorisant culture axée sur les données. Il ne s'agit pas seulement d'avoir accès aux données, mais d'intégrer l'analyse des données dans chaque processus décisionnel, de la stratégie au fonctionnement quotidien. Cela implique un engagement de la part du leadership, la création d'un langage commun sur les données, la promotion d'un état d'esprit curieux et analytique, et la reconnaissance des champions des données au sein des équipes d'affaires. Lorsque le libre-service est bien mis en oeuvre, il permet de mieux comprendre, de réduire l'arriéré de demandes de TI, d'accroître la capacité d'innovation et, en fin de compte, d'habiliter les employés qui peuvent contribuer activement à la valeur opérationnelle en se fondant sur des données concrètes. Le libre-service n'est pas l'absence de gouvernance, mais une gouvernance qui renforce l'autonomie, transformant la complexité des données en un avantage concurrentiel disponible pour tous.

Stratégies pour un avenir durable fondé sur les données : leçon pour les entreprises italiennes

Les défis soulignés par la recherche Denodo, l'absence de Chief Data Officer à la déconnexion entre Business et IT, à la mauvaise qualité des données et à la complexité des architectures, décrivent un cadre dans lequel les entreprises italiennes ont une voie importante pour se déplacer pour atteindre une maturité entièrement axée sur les données. Toutefois, ces défis offrent d'importantes possibilités de croissance et d'innovation. Pour bâtir un avenir durable et résilient, les entreprises italiennes doivent adopter une approche stratégique et holistique, qui ne se limite pas à des applications technologiques ponctuelles, mais qui implique des personnes, des processus et une culture. Voici les principales stratégies : 1. Privilégier le leadership et l'organisation des données : Il est impératif d'investir dans la création d'un rôle de dirigeant principal des données ou d'une fonction dédiée à la gouvernance des données, en veillant à ce que ce chiffre dispose du soutien de la direction et du pouvoir nécessaire pour guider le changement. L'ODC doit être le catalyseur qui unifie la vision des données entre les entreprises et les TI. 2. Adopter les technologies de compétences et l'architecture moderne : La virtualisation des données est un pont essentiel pour l'agilité et la démocratisation de l'accès. Au-delà, des architectures telles que Data Fabric et Data Mesh peuvent offrir des solutions à long terme pour l'évolutivité et la gestion des écosystèmes de données complexes et distribués, en particulier dans des contextes multiclouds. L'adoption stratégique du cloud, en accordant une attention particulière à la sécurité et à la souveraineté des données, est essentielle pour accéder à des ressources évolutives et à des outils perfectionnés d'IA/ML. 3. Investir dans la qualité et la gouvernance des données : La mise en oeuvre de programmes robustes sur la qualité des données et la définition d'un cadre de gouvernance clair et partagé sont les fondements sur lesquels fonder toute initiative axée sur les données. Sans données fiables, toute analyse ou modèle d'IA est censé échouer. 4. Promouvoir une culture axée sur les données et l ' alphabétisation des données : L'autonomisation des utilisateurs des entreprises par le libre-service est essentielle, mais elle doit s'accompagner de programmes de formation (littéralisation des données) qui développent les compétences nécessaires pour interpréter et utiliser les données de façon critique. La culture de l'entreprise doit valoriser les données en tant que ressource décisionnelle. 5. Renforcer la sécurité et la conformité : Dans un monde où les cybermenaces et la protection de la vie privée sont de plus en plus nombreuses (RGPD en prime), la sécurité et la conformité des données doivent être intégrées à toutes les étapes du cycle de vie des données. Les interruptions de service de grands fournisseurs de cloud (comme AWS) nous rappellent l'importance de plans d'urgence robustes. Les entreprises italiennes ont le potentiel de transformer leurs défis actuels en avantages concurrentiels. L'ère de la transformation des données exige que les décisions soient guidées par des idées, ce qui, comme l'a souligné Gabriele Obino de Denodo, exige une démocratisation de l'accès aux données tout en garantissant la sécurité et la gouvernance. La mission de Denodo, et l'espoir pour toutes les entreprises, est de pouvoir se concentrer sur ses objectifs commerciaux et sa valeur pour les clients, sans préoccupations liées à la gestion intrinsèque des données. Ce n'est que de cette manière que les entreprises peuvent se développer dans un avenir qui est déjà là, en accédant immédiatement et facilement à toutes les données nécessaires, indépendamment de leur emplacement ou de leur complexité.

FrançaisfrFrançaisFrançais