Le terme « Data » est aujourd’hui largement utilisé au sein des organisations comme une injonction managériale à faire des données la fondation de toutes décisions. Comme toute injonction qui semble s’imposer aux décideurs, elle génère la peur de passer à côté de quelque chose, de rater l’analyse, l’algorithme - on parle même de bouquets d’algorithmes, cela ne rendant pas le sujet plus bucolique - et la dernière technologie qui permettraient d’atteindre le succès sans effort.

Mais qu’en est-il véritablement ? De quoi parlons-nous aujourd’hui lorsque l’on évoque la Data ? De Data Science, de Machine Learning, d’Analytics ?
Qu’est ce qui a vraiment changé ? Qu’est ce qui subsiste ? Que doit-on retenir des cas d’usage émergeant et des nouvelles pratiques autour des données ?

Ce qui subsiste, bien évidemment, c’est que la structuration et l’analyse des données restent des aides à la prise de décision. Préparer des données, les structurer, les rationaliser, c’est outiller le décideur.
Cependant, cette préparation n’est plus uniquement destinée à obtenir un tableau de données, ou sa représentation graphique, proposés à intervalles réguliers. Nous entrons dans l’ère de la prise de décision automatisée et réactive, permettant l’ajustement de l’exécution en temps réel. Aujourd’hui, nous allons plus vite. Les chaînes de préparation des données doivent permettre la « prise de décision permanente ».

Lorsqu’un flux de données restituant les paramètres de machines en production permet de prévoir une qualité, une couleur, une épaisseur ou une propriété donnée d’un produit en bout de chaîne - grâce à un algorithme exploitant l’évolution des paramètres - il est aujourd’hui possible de procéder à un ajustement en temps réel de ces paramètres de machines pour maintenir ou cibler un niveau de qualité attendu. Ici, la décision d’ajustement du processus de production peut être prise en temps réel grâce au flux de données et, bien souvent, de façon automatisée.

Aujourd’hui, lorsqu’un client consulte un site web et/ou interagit sur un site marchand, il est possible d’automatiser la proposition d’offre complémentaire en temps réel (cross-sell, upsell) et ce grâce à l’algorithme de décision qui évalue le comportement de l’utilisateur. Là encore, c’est l’utilisation des données qui vise à la décision, à l’ajustement, de manière automatisée, sur chaque individu et à l’échelle d’une population de consommateurs. La prise de décision est donc automatisée mais également massive.

Les cas d’usage des données visent désormais l’immédiateté, la réactivité, l’automatisation et la massification des décisions. La préparation des données subsiste.

Technologiquement, les données préparées selon les principes plus traditionnels de Business Intelligence ou de DataWarehousing (utilisation du SQL, bases de données relationnelles, etc.) restent d’actualité : le travail des analystes et l’exploration de données préparées sont toujours nécessaires. Mais, là aussi, enrichies, les méthodes et les puissances de calcul permettent désormais d’appliquer des principes statistiques (classification, prédiction, corrélation) et de traiter des volumes de données significativement plus importants.

Alors, comment démêler le neuf et l’ancien ? Ce qui existe et ce qui est illusion ? Comment faire le tri dans les termes utilisés dans ce domaine des données ?
Commencez par « faire honneur au passé » (« Honor the past », comme le disent les anglo-saxons), consolidez les approches traditionnelles, en particulier sur la préparation des données, complétez la palette de vos données et leur niveau de qualité avec les nouvelles méthodes de traitement, projetez vos organisations dans les nouveaux usages des données et les nouveaux modes d’utilisation de ces données. Nous serons à vos côtés pour vous accompagner.

Dans la suite de ces billets, nous développerons une vision plus prospective de l’usage des données et les méthodes pour mieux les exploiter et en faire un avantage compétitif.


Auteur : Jean-Hubert Guillot, Director

Rechercher
Toggle location