Pierre GEORGET, CEO de GS1 France, le 31 août 2012
Philip K Dick avec Minority Report ou Total Recall en a montré la face la plus sombre, Big Data est un instrument d’oppression même s’il échoue en final. Isaac Asimov avec le cycle « fondation » a présenté une approche plus positive. Pour lui Big Data doit sauver la civilisation. Son personnage Hari Seldon, le mathématicien et psycho-historien a décrit les lois gouvernant l’histoire et la société. L’objectif, et c’est toute la trame du cycle « fondation », est de protéger la civilisation contre la barbarie. Pour l’un et l’autre, la fonction de Big Data est la prédiction, qu’elle soit opérationnelle, sociale, politique, peu importe. La prédiction découle de l’analyse de masse de données, de la capacité des algorithmes à en faire une lecture intelligente, et d’en tirer des décisions pour agir ou prévenir. Voilà la logique du Big Data.
Mais ce triptyque a des points de faiblesse, l’exhaustivité et la qualité des données, la pertinence des algorithmes de connaissance, la rapidité et la précision de l’action. GS1 s’intéresse principalement et presque exclusivement au premier défi, qualité et exhaustivité, c’est dans ce domaine que son expérience est la plus grande. Concernant le troisième aspect, celui de l’action, la contribution de GS1 est plus faible. Les technologies d’automatisation de collecte d’information (Code à Barres, RFID, Echange électroniques, …) sont aussi des outils d’automatisation des opérations complexes et répétitives qui constituent le champ principal d’intervention de la robotique de demain.
La collecte de données est la fonction même du code à barres. Dès 1971 quand fournisseurs et distributeurs ont créé le groupe de travail pour développer le code que nous connaissons aujourd’hui, l’objectif était double, accélération et qualité du passage aux caisses et collecte de données de vente pour améliorer la disponibilité des produits et l’efficacité des promotions. Par la suite, le développement des échanges électroniques, des cartes de fidélité, du couponing, de la traçabilité, des catalogues électroniques ont contribué à accroître les possibilités d’accumuler des données sur la vie des produits et le comportement des consommateurs. La RFID, les serveurs d’évènements, le mobile commerce et l’internet des marchandises ouvrent des perspectives plus considérables encore d’accumulation d’information de la fourche à la fourchette, de l’étable à la table. Avec 10 milliards de transactions par jour aux caisses des magasins, la masse de données accumulées est considérable dans les historiques de vente des entreprises de produits de grande consommation.
Mais ce triptyque a des points de faiblesse, l’exhaustivité et la qualité des données, la pertinence des algorithmes de connaissance, la rapidité et la précision de l’action. GS1 s’intéresse principalement et presque exclusivement au premier défi, qualité et exhaustivité, c’est dans ce domaine que son expérience est la plus grande. Concernant le troisième aspect, celui de l’action, la contribution de GS1 est plus faible. Les technologies d’automatisation de collecte d’information (Code à Barres, RFID, Echange électroniques, …) sont aussi des outils d’automatisation des opérations complexes et répétitives qui constituent le champ principal d’intervention de la robotique de demain.
La collecte de données est la fonction même du code à barres. Dès 1971 quand fournisseurs et distributeurs ont créé le groupe de travail pour développer le code que nous connaissons aujourd’hui, l’objectif était double, accélération et qualité du passage aux caisses et collecte de données de vente pour améliorer la disponibilité des produits et l’efficacité des promotions. Par la suite, le développement des échanges électroniques, des cartes de fidélité, du couponing, de la traçabilité, des catalogues électroniques ont contribué à accroître les possibilités d’accumuler des données sur la vie des produits et le comportement des consommateurs. La RFID, les serveurs d’évènements, le mobile commerce et l’internet des marchandises ouvrent des perspectives plus considérables encore d’accumulation d’information de la fourche à la fourchette, de l’étable à la table. Avec 10 milliards de transactions par jour aux caisses des magasins, la masse de données accumulées est considérable dans les historiques de vente des entreprises de produits de grande consommation.
A quoi servent toutes ces données amassées. Quatre grands types d’applications font le quotidien des entreprises, la logistique (optimisation des approvisionnements, diminution des ruptures, ..), le merchandising (couponing, organisation des linéaires), le marketing (introduction des nouveaux produits, gestion des promotions, m-commerce) et la sécurité (traçabilité, lutte contre le vol, lutte contre la contrefaçon).
Mais pour que cela marche, il faut que les données soient fiables. C’est le principal écueil rencontré aujourd’hui. Si les données sont une mine d’or, les pépites sont encore constituées à 80% d’impureté selon les deux études les plus complètes menées en Angleterre et en Australie. Et encore ses études portent sur des données commerciales et logistiques simples, code à barres, poids, dimensions, … qu’en sera-t-il avec les images des produits, les données privées consommateurs. La qualité des données est l’enjeu majeur pour l’industrie des PGC à l’horizon 2020, aussi bien pour les magasins physiques que pour les ventes en ligne.
Et la solution peut se résumer en une expression qui résonne un peu comme l’antidote au Big Data, Open Data. L’approche de GS1 est de toujours s’assurer que les informations sont collectées et contrôlées à la source et par l’autorité source. Pour les dire autrement, les données provenant d’un acteur sont collectées par l’acteur et celui-ci y a accès pour les contrôler, et cela est vrai qu’il s’agisse d’une entreprise, d’un consommateur ou d’un citoyen.
L’intelligence est le second défi, mais il semble plus facile à atteindre dans le contexte industriel et logistique en s’appuyant sur l’expérience des gens de métier. L’industrie des PGC ne manque pas d’exemples d’algorithmes de décision utilisant les données de vente croisées avec les profils de consommateur. Mais plus proche encore de GS1, les commandes assistées par ordinateur (CAO) en sont l’illustration la plus simple, mais bien qu’évidente elle encore peu répandue. Il n’est pas certain qu’elle soit utilisée dans la moitié des magasins de France. Plus sophistiquée, les outils de gestion partagée des approvisionnements sont une belle application de l’intelligence tirée du croisement entre flux des marchandises, historiques de ventes, animations des ventes, et données climatiques.
La troisième question, le passage de la prédiction à l’action est celle qui sera porteuse des plus grands bouleversements dans la vie des entreprises à l’horizon 2020. Le Big Data utilise des grandes masses données collectées à partir d’une multitude d’évènements pour décider intelligemment sur des multitudes de flux ou de relations qui sont eux-mêmes des évènements. Pour être fiable et exhaustive la collecte est automatisée (code à barres, RFID, senseurs, transactions e-commerce, …) et les algorithmes prédisent et proposent … Pour être efficace les actions ne peuvent être qu’automatisées aussi. Ce sont des algorithmes qui dialoguent avec des algorithmes, des machines avec des machines. C’est bien ce qui se produit quand Twitter ou Facebook envoient un message du type « on ne vous voit plus sur le réseau » ou bien « X a peu d’amis, aider le ! », de même quand Amazon propose une sélection personnalisée de livres ou de disques.
Dans le monde physique de l’entrepôt, du magasin ou de l’usine, le big data devrait avoir les mêmes effets de « robotisation ». La production de données en provenance des clients, des fournisseurs, des logisticiens, des transporteurs, et des multiples capteurs dont les bâtiments, l’environnement, les machines, les produits seront équipés, sera telle que seuls des logiciels seront capables de prendre les décisions et d’actionner les robots pour réaliser les opérations nécessairement en temps réel.
Et ceci est d’autant plus vrai que la principale limite de la machine Big Data est qu’elle est dans l’environnement qu’elle contrôle et non pas à l’extérieure. Les actions qu’elle déclenche modifient son propre environnement et peuvent la conduire à des emballements comme ceux causés en bourse par les systèmes de trading automatiques. Un homme, encore éveillé dans l’univers, devra intervenir pour déconnecter HAL.
Cette possibilité constante de l’humain d’intervenir sur les données pour y apporter de la qualité, sur les algorithmes pour en contrôler l’intelligence, et sur les machines virtuelles ou physiques pour les piloter, c’est l’Open Data. Aujourd’hui l’intérêt se porte principalement sur les données et leurs collectes, à juste raison puisque sans elles il ne peut y avoir de prédiction juste. Mais le droit aux données reste encore à bâtir. La loi informatique et liberté protège les particuliers avec le droit « d’accès », le droit de « rectification ». De nouveaux concepts apparaissent avec le droit « à l’oubli », ou le droit « au silence des puces ». Les entreprises aussi devront être dotées de ce droit de protéger leurs données. Les premières applications d’information consommateur sur les caractéristiques des produits montrent combien les entreprises sont démunies face à l’usurpation de leurs données.
Big Data ne tiendra ses promesses de prédiction juste pour des décisions justes qu’en association avec l’Open Data à condition que cette ouverture soit offerte à tous les niveaux, la collecte, les algorithmes de prédiction et la conduite de l’action. Cette combinaison de puissance, d’intelligence et de participation reste encore à inventer.
Mais pour que cela marche, il faut que les données soient fiables. C’est le principal écueil rencontré aujourd’hui. Si les données sont une mine d’or, les pépites sont encore constituées à 80% d’impureté selon les deux études les plus complètes menées en Angleterre et en Australie. Et encore ses études portent sur des données commerciales et logistiques simples, code à barres, poids, dimensions, … qu’en sera-t-il avec les images des produits, les données privées consommateurs. La qualité des données est l’enjeu majeur pour l’industrie des PGC à l’horizon 2020, aussi bien pour les magasins physiques que pour les ventes en ligne.
Et la solution peut se résumer en une expression qui résonne un peu comme l’antidote au Big Data, Open Data. L’approche de GS1 est de toujours s’assurer que les informations sont collectées et contrôlées à la source et par l’autorité source. Pour les dire autrement, les données provenant d’un acteur sont collectées par l’acteur et celui-ci y a accès pour les contrôler, et cela est vrai qu’il s’agisse d’une entreprise, d’un consommateur ou d’un citoyen.
L’intelligence est le second défi, mais il semble plus facile à atteindre dans le contexte industriel et logistique en s’appuyant sur l’expérience des gens de métier. L’industrie des PGC ne manque pas d’exemples d’algorithmes de décision utilisant les données de vente croisées avec les profils de consommateur. Mais plus proche encore de GS1, les commandes assistées par ordinateur (CAO) en sont l’illustration la plus simple, mais bien qu’évidente elle encore peu répandue. Il n’est pas certain qu’elle soit utilisée dans la moitié des magasins de France. Plus sophistiquée, les outils de gestion partagée des approvisionnements sont une belle application de l’intelligence tirée du croisement entre flux des marchandises, historiques de ventes, animations des ventes, et données climatiques.
La troisième question, le passage de la prédiction à l’action est celle qui sera porteuse des plus grands bouleversements dans la vie des entreprises à l’horizon 2020. Le Big Data utilise des grandes masses données collectées à partir d’une multitude d’évènements pour décider intelligemment sur des multitudes de flux ou de relations qui sont eux-mêmes des évènements. Pour être fiable et exhaustive la collecte est automatisée (code à barres, RFID, senseurs, transactions e-commerce, …) et les algorithmes prédisent et proposent … Pour être efficace les actions ne peuvent être qu’automatisées aussi. Ce sont des algorithmes qui dialoguent avec des algorithmes, des machines avec des machines. C’est bien ce qui se produit quand Twitter ou Facebook envoient un message du type « on ne vous voit plus sur le réseau » ou bien « X a peu d’amis, aider le ! », de même quand Amazon propose une sélection personnalisée de livres ou de disques.
Dans le monde physique de l’entrepôt, du magasin ou de l’usine, le big data devrait avoir les mêmes effets de « robotisation ». La production de données en provenance des clients, des fournisseurs, des logisticiens, des transporteurs, et des multiples capteurs dont les bâtiments, l’environnement, les machines, les produits seront équipés, sera telle que seuls des logiciels seront capables de prendre les décisions et d’actionner les robots pour réaliser les opérations nécessairement en temps réel.
Et ceci est d’autant plus vrai que la principale limite de la machine Big Data est qu’elle est dans l’environnement qu’elle contrôle et non pas à l’extérieure. Les actions qu’elle déclenche modifient son propre environnement et peuvent la conduire à des emballements comme ceux causés en bourse par les systèmes de trading automatiques. Un homme, encore éveillé dans l’univers, devra intervenir pour déconnecter HAL.
Cette possibilité constante de l’humain d’intervenir sur les données pour y apporter de la qualité, sur les algorithmes pour en contrôler l’intelligence, et sur les machines virtuelles ou physiques pour les piloter, c’est l’Open Data. Aujourd’hui l’intérêt se porte principalement sur les données et leurs collectes, à juste raison puisque sans elles il ne peut y avoir de prédiction juste. Mais le droit aux données reste encore à bâtir. La loi informatique et liberté protège les particuliers avec le droit « d’accès », le droit de « rectification ». De nouveaux concepts apparaissent avec le droit « à l’oubli », ou le droit « au silence des puces ». Les entreprises aussi devront être dotées de ce droit de protéger leurs données. Les premières applications d’information consommateur sur les caractéristiques des produits montrent combien les entreprises sont démunies face à l’usurpation de leurs données.
Big Data ne tiendra ses promesses de prédiction juste pour des décisions justes qu’en association avec l’Open Data à condition que cette ouverture soit offerte à tous les niveaux, la collecte, les algorithmes de prédiction et la conduite de l’action. Cette combinaison de puissance, d’intelligence et de participation reste encore à inventer.
Autres articles
-
GS1 France aux côtés d’Equadis pour développer la solution « Data Quality Checker » garantissant l’échange de données de qualité sur le marché français
-
GS1 France aux côtés d’Equadis pour développer la solution « Data Quality Checker » garantissant l’échange de données de qualité sur le marché français