Petit rappel sur ce que recouvre la Big-Data ?

La Big-Data, est un terme anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. On parle aussi de “datamasse” en français par similitude avec la biomasse.

La Big Data permettent d’imaginer aujourd’hui des applications qui étaient impossibles à concrétiser auparavant, du fait des limites imposées par les fameux « 3V »:

  • des Volumes trop importants pour être analysés dans leur ensemble, obligeant à exploiter des échantillons pas toujours représentatifs,
  • une Variété empêchant toute modélisation rapide,
  • des Vitesse d’actualisation n’offrant pas le temps d’analyser les données au moment voulu.

C’est aussi, et c’est regrettable, un terme que les équipes marketing des divers éditeurs, ont exploité et usé jusqu’à l’écœurement parfois même en le vidant de son sens. Une récent article du journal Les Echos citait une analyse des retards TGV (issues des données open-data de la SNCF), en parlant de Big-Data, sachant que c’est un fichier de quelques milliers de lignes, structuré et à la maille mensuelle !

Big-Data pour quoi faire ?

Premier point important, la problématique principale de la big data n’est pas technique.

Il existe des offres qui sont maintenant largement testées et diffusées qui font parfaitement le “boulot” : citons par exemple Hadoop qui entre dans l’age adulte, tout comme HANA, qui bien que pas le premier outils auquel on pense pour la Big Data, est une réponse intéressante.

Comme le déclare R Ray Wang (twitter : ‏@rwang0) :

tech big data

L’enjeu de la Big-Data est bien fonctionnelle…
Question for big data ?

A chaque entreprise / marché sa question “Big Data”, mais on y retrouve quelques constantes : le but est souvent d’analyser des données massives (issues de capteurs, de données du web – structurées ou non structurées…) afin d’en extraire une meilleure connaissance de l’activité ou de l’environnement de l’entreprise, ce qui permet par la suite d’appliquer cette connaissance à l’activité de l’entreprise :

Passer de décisions instinctives à des décisions basées sur les données (From Gut to data Driven decision making)

Cet objectif passe régulièrement par de l’analyse prédictive, dont l’enjeu est de répondre aux questions suivantes, afin de pouvoir agir sur la base de la réponse apportée :

  • Qui va ? (Probabilités) résilier | frauder | acheter… prochainement (semaine, mois, année…)
  • Combien de produits, à quel prix ? (Valeurs numériques) un client va acheter prochainement (semaine, mois, année…)
  • Quels sont ? (Segments, classes) les groupes de clients similaires (habitudes, profils …)
  • Quelle sera l’évolution ? (Séries temporelles) du revenu | de l’affluence… des magasins par période (jour, semaine, mois…)
  • Identifier qui ? (Réseaux sociaux) influencera | connectera … des items (individus, produits…) dans des communautés
  • Quelle est ? (Recommandations, Analyse du panier d’achat) la prochaine meilleure (offre, action…) pour mes (clients, internautes…)

L’ERP, si loin de la Big-Data, et pourtant !

L’ERP, issu des concepts développés par les militaires lors de la seconde guerre mondiale, a réellement pris son envol dans les entreprises il y a un peu plus de 40 ans.

La logique fondamentale de L’ERP est d’être dans une logique “Inside-Out”, c’est à dire orienté vers l’intérieur de l’entreprise, l’entreprise saisie ses données, et les exploite en interne, avec éventuellement une diffusion souvent limitée vers l’extérieur (un peu de diffusion de BI vers les clients, de la communication avec quelques fournisseurs clés, etc…)

Avec l’arrivée de la Big-Data, c’est cette logique fondamentale qui est reversée… l’ERP va devoir passer d’un logique “Inside-Out” à une logique “Outside-in”, les données et savoirs issus de la big-Data devant nécessairement être mis en application dans le cadre des opérations de l’entreprise, ce qui passe par l’ERP (mais aussi le CRM…)

Un exemple intéressant par exemple est John Deere, connu pour ses tracteurs. Ils ont travaillé en plusieurs phases :

  1. Collecte des données sur le fonctionnement des machines(via des capteurs) et sur les pannes.
  2. Analyse des données et déterminaton de schémas (pattern) permettant de prédire une panne avant que celle ci n’ait lieu.
  3. Mise en place de cette logique de maintenance prédictive dans ECC HANA, via la collecte en temps réel des données de capteurs des équipements et en cas de détection d’un schéma de panne, le déclenchement automatique d’une intervention chez le client.

Autre illustration, toujours dans la maintenance prédictive :

Le même raisonnement s’applique par exemple à l’analyse des sentiments sur les réseaux sociaux. Être capable de savoir qu’un utilisateur est mécontent, c’est bien, mais cela ne sert à rien si l’entreprise n’apporte pas de réponse à cet utilisateur. La détection d’un Tweet d’insatisfaction doit donc, déclencher une action rapide (et même très rapide) des équipes de gestion de la relation client, ce qui passe nécessairement par la création d’un “ordre de travail” dans le systèmes transactionnel des équipes.

Donc pour conclure cet article, nous pensons que la Big-Data et ses multiples applications vont venir chambouler le monde de l’ERP et des systèmes transactionnels, condition “sine-qua-non” du retour sur investissement dans la Big-Data. L’étape suivante étant le “machine Learning” qui devrait permettre au systèmes d’apprendre et d’améliorer tout seul leurs décisions. Il reste encore du chemin à parcourir !

Si vous souhaitez plus d’information sur le sujet, n’hésitez pas à demander l’envoi du support du petit Déjeuner que Censio a co-organisé cet été sur la Big Data et le binôme gagnant que représente HANA et Hadoop [NDLR : ce document est réservé aux clients et prospects]

Laisser un commentaire