Simplifiez-vous l'innovation

#astuce
catégories

#astuce
partage

#astuce
liens internes

Quelle réalité se cache derrière cette expression qui, selon certains, serait la prochaine révolution ?

Quelle réalité derrière le Big Data ?

Aymeric Raoult
Aymeric
18 octobre 2015

« Les données deviennent la nouvelle matière première de l’économie » Craig Mundie, Senior Advisor du CEO, Microsoft. « L’information est le nouveau pétrole du 21e siècle, et l’analyse le nouveau moteur à combustion » Peter Sondergaard, Senior Vice President, Gartner. « Les données sont la nouvelle science. Le Big Data détient les réponses » Pat Gelsinger, COO d’EMC.

Ces citations font référence à un concept : le Big Data.
Quelle réalité se cache derrière cette expression qui, selon certains, serait la prochaine révolution ? Apparu à la fin des années 2000, le terme Big Data désigne « la capacité à tirer parti des données pour produire des informations utiles ou des biens et services à valeur ajoutée » (Kenneth Cukier, Data Editor pour The Economist).

Les 3 V : Variété, Volume, Vélocité

  1. La variété
    Dans le passé, une grande partie des données se limitait à des chiffres et des lettres stockés dans des outils de type CRM et ERP. Avec le développement du Web, du mobile, et aujourd’hui, des objets connectés, les sources et formats des données se sont multipliés : photos, vidéos, voix, GPS, cookies, SMS, tweets, capteurs…
  2. Le volume
    Cette variété s’accompagne d’un accroissement de plus en plus rapide du volume de données. Dans le monde, en une minute, ce sont 204 millions d’e-mails envoyés, 278 000 tweets, 104 000 photos partagées sur SnapChat, 72h de vidéos regardées sur Youtube… Résultat : 90 % des données créées dans le monde l’ont été au cours des 3 dernières années.
  3. La vélocité
    Le traitement se fait de plus en plus en temps réel, même si l’analyse se fait majoritairement sur les données « froides » (de quelques heures à quelques années).

L’innovation technologique à l’origine du Big Data

Les trois dimensions du Big Data ont été rendues possibles grâce à quinze années d’évolutions technologiques, incluant :

  • L’introduction des alternatives aux bases de données relationnelles (SQL), avec le NoSQL (Not Only SQL)
    Ces nouvelles architectures simplifient le stockage de données aux formats multiples (Variété) et facilitent leur traitement par du calcul parallèle.
  • Une décroissance exponentielle du coût de stockage (Volume)
    A titre indicatif, les prix de Google Cloud Storage et Amazon S3 sont de l’ordre de 0,03 $/mois/Go. En 2000, le prix d’un Go était 250 fois plus élevé.
  • Une accélération de la puissance de calcul et l’introduction du calcul parallèle (Vélocité).

Les calculs complexes ne sont plus traités en bloc par un seul processeur, mais décomposés en sous-blocs et répartis sur plusieurs processeurs pour accélérer le traitement.

Les développements du Cloud Computing et du Big Data sont liés. Il autorise les entreprises, quelle que soit leur taille, à transformer les coûts fixes de serveurs (stockage & puissance de calcul) en coûts variables (Pay As You Use), et à les utiliser quand elles le veulent.

"Big data is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it." Dan Ariely, Professeur à Duke University
"Big data is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it." Dan Ariely, Professeur à Duke University

Vers une entreprise « Data-driven »

Mettre en place une stratégie Big Data au sein d’une organisation commence par l’identification des enjeux et problématiques métiers. L’objectif : les traduire en problèmes mathématiques. Leur résolution passe par un processus itératif composé de 4 phases.

  1. Collecter (Data Sourcing) L’objectif est d’obtenir les données pertinentes contribuant à la compréhension de la situation et la résolution du problème. Elles peuvent être collectées aussi bien à l’interne d’une organisation, qu’à l’externe. Les modalités d’accès aux sources externes sont variées :

    Les données brutes en accès libre Les données publiques (data.gouv.fr, les portails OpenData…), les données « crowdsourcées » (OpenFoodFac, OpenStreet Map, Open Meteo Foundation…).

    Les API (Application Programming Interface) de données De plus en plus d’entreprises, dont les réseaux sociaux (Facebook, Twitter, Linkedin…), Amazon, Google ou encore Orange donnent un accès restreint (payant ou non) à certaines données via des API. Le développement des objets connectés contribue à enrichir les données disponibles.

    Les éditeurs de données Portail de données (Windows Azure), agrégation de données à la demande (Data Publica, Import.io…). Un même jeu de données peut être utilisé dans plusieurs contextes, c’est sa mise à disposition, vers l’interne et/ou l’externe, qui permet de multiplier son potentiel.

  2. Préparer (Data Quality) Cette phase consiste à évaluer la qualité et la richesse des données, les consolider (supprimer les doublons, mise au format) et à les structurer. Aujourd’hui, 80 % des données produites sont non structurées (documents, vidéos, sons, messages sur les réseaux sociaux…). Structurer ces données, cela consiste à leur donner une signification en fonction d’une finalité précise grâce à un traitement informatique (analyse sémantique, reconnaissance de sons, d’images, analyse des relations…). C’est aussi être capable d’enrichir les données de l’entreprise par des données externes. Par exemple, enrichir le CRM avec les profi ls sociaux (Twitter, Facebook…) des clients.
  3. Organiser (Database) L’objectif est de stocker et rendre accessible les données après leur phase de préparation.
  4. Exploiter (Data Analytics) Cette phase consiste à élaborer les modèles mathématiques pour répondre aux problématiques identifiées. Les finalités associées au Big Data sont généralement de deux ordres :

    Comment faciliter et accélérer la prise de décision ? L’objectif est de passer de l’analyse descriptive (Qu’est-ce qui s’est passé ?) à l’analyse prédictive (Qu’est-ce qui va sepasser ?). L’ambition est d’arriver à l’analyse prescriptive (Proposer les actions pour arriver à la situation optimale). Sur ce créneau, on trouve un acteur comme Bime, qui propose une solution SaaS de reporting en temps réel. En 2012, une étude de A. McAffee et E. Brynjolfsson a mis en avant que les entreprises prenant des décisions sur la base des données (data-driven) étaient, en moyenne, 5 % plus productives et 6 % plus profitables que leurs concurrentes.

    Comment automatiser les actions ? L’exploitation des données est menée par les « Data Scientist », des profils alliant à la fois la maîtrise des techniques du Data Mining (exploration des données), du développement informatique, et qui sont aptes à comprendre les problématiques métiers.

Le Big Data au service du marketing

De la prospection à la fidélisation, les problématiques des directions Marketing & Vente pour améliorer la relation client représentent un vaste un champ d’applications pour le Big Data. Les bénéfices du Big Data sur les processus orientés clients sont estimés à 5,5 milliards d’euros en France pour la période 2014-2017 (Source : IDC/Microsoft). En matière de prospection, tout l’enjeu est de découvrir l’intention du client.

Le cas d’application classique est la publicité en ligne. En segmentant les internautes sur la base de leur navigation (notamment via les cookies), des sociétés comme Criteo ou Adverline proposent aux marques d’optimiser l’efficacité de leurs campagnes publicitaires (pousser le bon produit, au bon moment, à la bonne personne, au meilleur coût).

Criteo, une licorne made in France
Criteo, une licorne made in France

La détection des intentions ne se limite pas au BtoC : Data Publica a annoncé en début d’année le lancement de C-Radar, une solution BtoB permettant d’identifier les prospects à appeler en priorité en fonction de la probabilité de succès de la démarche commerciale. Une bonne connaissance de son audience facilite aussi la personnalisation du contenu. Par exemple, la start-up bordelaise Ezakus accompagne les éditeurs pour adapter le contenu du site en fonction des préférences identifi ées de l’internaute : proposer les produits adaptés en page d’accueil pour un e-commerçant, mettre en avant les articles correspondant aux centres d’intérêt de l’internaute pour un journal en ligne… Les cas d’applications sont légion. Attention tout de même à ne pas supprimer le phénomène de « sérendipité »…

Après avoir attiré le prospect sur son site, vient le moment de le transformer en client. Le Big Data intervient ici pour comprendre comment accroître le taux de conversion. C’est à cette question que Lacoste a voulu répondre pour améliorer les performances de sa boutique en ligne. Accompagné de l’agence FiftyFive, Lacoste a mis en place une solution de tracking (suivi de la navigation) et utilisé la méthode du test A/B (comparaison simultanée de différentes versions pour identifi er la plus effi cace) pour améliorer son interface. Après quelques modifications mineures, comme la mise en avant de la gratuité de la livraison (à partir d’un certain montant) juste sous le bouton « ajouter au panier », le taux de conversion a progressé de 30 %, soit 24 000 ventes supplémentaires sur l’année.

Le Big Data peut aussi être utilisé pour accroître le montant du panier moyen (cross selling), comme l’illustre le fameux « Les clients ayant acheté cet article ont également acheté… » d’Amazon.

Une fois le prospect devenu client, une société comme TinyClues, en reliant CRM et données externes (réseaux sociaux…), définit des segments cohérents de clientèle et adapte le contenu des campagnes marketing. Avec cette solution, PriceMinister aurait amélioré ses revenus de 30 % et diminué d’un tiers le nombre de désabonnements à sa newsletter. L’offre retargeting multicanal de Mediapost Communication s’inscrit également dans cette approche.

En matière de relation client, la promesse du Big Data s’étend aussi à l’identifi cation des « ambassadeurs » de la marque (Visibrain), à l’anticipation des communications de crise et à la compréhension de l’opinion (Proxem), à la prévention de l’attrition (le « churn », Flaminem), ou encore à la définition du Marketing Mix.

Le Big Data au service du secteur Logistique

Avec un flux de biens en constante augmentation, une multiplicité de taille, de poids, de destination, et une demande de suivi en temps réel de chaque objet, le secteur de la logistique est parfaitement placé pour bénéficier des avancées technologiques en matière de gestion de la donnée. La direction de l’innovation de DHL a d’ailleurs publié un livre blanc à ce sujet : Big Data in Logistics (décembre 2013).

Pour DHL, les données logistiques peuvent, entre autres, être exploitées pour :

  • Optimiser la performance, avec le calcul en temps réel du trajet (DHL Smart Truck) ou bien la prévision de l’évolution de la charge pour gérer la présence du personnel (DHL Parcel Volume Prediction).
  • Développer de nouveaux services, avec la création d’un tableau de bord pour informer les PME sur leur environnement économique (prévision des ventes, analyses des concurrents, zones de chalandises ; DHL GeoVista), ou bien encore faciliter la livraison multimodale sur le dernier kilomètre, avec notamment le « crowdshipping » (livraison par des particuliers ; DHL MyWays)
Quand DHL s'intéresse au Big Data
Quand DHL s'intéresse au Big Data

Le Big Data au service du secteur Bancaire

Transformer radicalement le secteur bancaire, c’est l’ambition d’un grand nombre de start-up de la « FinTech ». Le Big Data est l’un des outils à leur disposition.

Comment rendre l’expérience de paiement la plus fluide possible, tout en assurant la sécurité des données et en limitant la fraude ? Des entreprises comme Paypal ou Klarna cherchent à y répondre en croisant la connaissance des parties prenantes (scoring basé sur les réseaux sociaux, l’historique de paiement…) et les conditions d’utilisation (localisation, montant, récurrence…).

Comment simplifier l’accès au financement de trésorerie pour les e-commerçants et les petites entreprises ? C’est à ce problème que s’attaquent Kabbage (US) et Iwoca (UK). Pour y arriver, ces start-up calculent un risque de crédit en utilisant les données de comptabilité, des réseaux sociaux, du suivi de colis… En quelques minutes, elles peuvent indiquer le montant accessible et le taux d’intérêt appliqué. En France, Finexkap aborde cette problématique sous l’angle de l’affacturage. A partir de leur algorithme (calibré sur près de 3 millions de factures), ils ont réussi à automatiser l’analyse de risque, réduisant à quelques heures le délai nécessaire pour traiter un dossier.

Le Big Data est aussi utilisé dans le domaine de l’assurance, pour modéliser les risques (HyperCube), ou encore dans la valorisation des données de transactions pour accompagner les petits commerçants dans leur stratégie marketing (Welcome RealTime, Plebicom…).

Ces quelques exemples ne font qu’effleurer le potentiel du Big Data. On trouve également des applications pour optimiser la gestion des stocks (Lokad), gérer les risques (Feedzai), organiser la maintenance préventive, prioriser les efforts commerciaux (Tilkee), ou améliorer la gestion des ressources humaines (Workday, Evolv)…

Les enjeux

Est-ce que l’exploitation et l’analyse de données peuvent m’aider à optimiser mon processus ? Améliorer ma prise de décision ? Changer ma manière de faire ? Chaque entité d’une entreprise doit analyser ses actions sous ce prisme et expérimenter pour comprendre comment optimiser son activité, sans s’interdire d’explorer des corrélations inédites entre des données aux sources variées.

Le Big Data est un moyen d’observer leurs problématiques sous un nouvel angle. Son potentiel en France est estimé à 54 milliards d’euros sur la période 2014-2017 (source : IDC/Microsoft). La majeure partie des gains est à chercher du côté de la réduction des coûts (30 milliards d’euros), par la transformation des fonctions support et l’automatisation des processus.

Tirer parti du Big Data demande d’explorer les problématiques opérationnelles d’une organisation avec une approche itérative. Il faut également accepter une marge d’erreur : les modèles « Big Data » ne sont jamais fiables à 100 %. Cela nécessite de modifier les critères de prises de décisions pour assumer cette prise de risque.

Les organisations devront également s’interroger sur l’internalisation ou non des compétences, et sur les opportunités de structurer une offre construite sur le Big Data. La formation des statisticiens/économètres à la « Data Science » est probablement un axe de transformation numérique.

Un point d’attention : malgré tout le potentiel évoqué, la protection de la vie privée, le respect de l’éthique, et l’accompagnement au changement sont des critères essentiels de réussite.


Aymeric Raoult
Ecrit par
Aymeric Raoult
Responsable innovation pour le Groupe La Poste.
Partager
Commentaires (0)
S’inscrire
à la newsletter