French

DONNEES --> INFORMATION --> INTELLIGENCE

L'émergence du Big Data ces dernières années rend absolument nécessaire de penser une stratégie intelligente de DLM (Data Lifecycle Management ou Gestion du Cycle de Vie des Données) en entreprise. Aucune transformation numérique n'est possible sans cela.

Les données doivent pouvoir être consultées rapidement et au moment opportun. Plus que jamais la Business Intelligence s'abreuve des informations provenant de sources toujours plus nombreuses. Dans ce foisonnement de données collectées, certaines ont une vie à court terme (besoin immédiat), mais d'autres auront une utilité sur la longue durée. Prenons l'exemple de la vie d'un patient : son dossier médical va aider son médecin à prescrire les bons médicaments, le dosage correct, à prévoir les visites de suivi, etc... et cela tout au long de son parcours de vie.

Ces informations sont toutes importantes, qu'elles soient plus ou moins souvent requises pour les besoins de l'entreprise, c'est leur niveau d'importance qui décidera de leur endroit de stockage pour un accès en accord avec ce besoin, selon qu'il est constant ou occasionnel. En fin de vie, l'information sera soit archivée, soit effacée.

Une bonne gestion du cycle de vie des données fait appel à bien plus que des applications, il s'agit avant tout de mettre en place une forme de pensée structurée qui va résulter en une gestion globalement intelligente des données de l'entreprise.

Venons-en à la conception. Lors de la construction d'un projet de gestion des données, chaque étape doit donc être pensée. Bien avant de commencer à collecter les données, il est nécessaire de structurer le projet selon les besoins et les moyens, sans oublier le facteur risques. Le coût global devra non seulement anticiper le développement exponentiel dans le temps de la collecte des données (et de leur utilisation), mais aussi les charges "homme" et "machine" nécessaires à son bon fonctionnement.

Quelques éléments de base auxquels il vous faudra répondre :

  • Pourquoi collecter les données ?
  • Pour quel usage ?
  • Pour en tirer quel profit ?
  • Comment assurer leur qualité sur le long terme ?
  • Qui aura accès aux données ?
  • Quels outils choisir?

Quelle que soit la méthodologie choisie, la planification est l'étape première à envisager.

Ensuite il est bien sûr essentiel de décider des endroits où toutes ces informations vont être stockées et la façon dont on y aura accès. La solution de stockage devra répondre à une nécessité absolue : son niveau deprotection des données sauvegardées. Non seulement pour respecter les lois en vigueur, mais aussi afin de se prémunir autant que possible des attaques de plus en plus fréquentes (cf. violation de données).

Une fois toutes ces étapes mûrement réfléchies et mises en place, le travail de longue haleine peut commencer : la collecte, l'utilisation et le contrôle permanent de la qualité des informations.


 

La gouvernance à la rescousse

La taille énorme des silos de données actuellement (tendance qui ne semble pas prête à ralentir, que du contraire) menace la notion même de valeur des informations collectées. Le Big Data rend difficile la maîtrise, l'exactitude constante, l'usage de ces données. Les coûts explosent, le jeu en vaut-il toujours la chandelle ?  

Vous voici maintenant avec plusieurs années de données collectées, votre solution de stockage tient le coup, les utilisateurs des données respectent avec plus ou moins de succès les règles exigées en matière de qualité, les informations obsolètes sont régulièrement archivées. Seulement voilà, un certain pourcentage de données est immanquablement inexact ou dupliqué, voire inaccessible. Car un élément majeur a été oublié dans notre projet de DLM : la gouvernance des données. C'est elle qui va permettre, entre autres, de garantir la possibilité de retrouver la bonne info au bon moment et au bon endroit.

Comment ?

En centralisant les accès, en assurant le respect des règles établies en interne, le responsable de la gouvernance des données de l'entreprise (DSI ou CDO) va permettre l'évolution des systèmes d'informationet l'utilisation pérenne des contenus (migration, extraction, ré-utilisation des données).

A partir de là, il suffit presque de récolter le fruit d'une longue préparation et d'extraire la valeur de toutes ces données collectées. Presque.

En effet pour que l'analyse des données soit possible, faut-il encore que les outils mis à disposition dans l'entreprise soient performants. Là encore le responsable de la gouvernance intervient en choisissant le ou les outils d'analyse pertinents pour l'ensemble des intervenants, outils qui sont eux-mêmes en évolution constante pour coller au plus près des besoins de la Business Intelligence.

Préparation, entreposage (data warehousing) ou intégration des données, ETL, visualisation... Les solutions sont nombreuses sur le marché, mais la tendance actuelle est à la facilité, au DAAS (Data As A Service) et à l'outil "tout-en-un". La virtualisation des données serait-elle la solution idéale pour atteindre les objectifs fixés de façon rapide, facile et efficace, quelle que soit la taille de l'entreprise et la complexité de ses systèmes d'information ?

A vous d'en juger !

Mots clés: 

Auteur: 

Muriel Adamski