Big Data, IoT, IA : des concepts interdépendants
Didier Lavoine, Directeur technique et innovation de Digora
Comme souvent dans le digital, si les concepts nouveaux connaissent un enthousiasme débordant, les contours et les définitions ont tendance à diverger : ainsi et par exemple, en fonction de l’interlocuteur, le concept de cloud ne présente pas tout à fait le même visage. Malgré, bien sûr, une définition commune dans les grandes lignes.
De leur côté, les Big Data, intelligence artificielle et IoT connaissent également leurs lots de différences marginales de points de vue. Mais c’est surtout leurs relations mutuelles qui impactent la définition qu’on en donne et, in fine, leur mise en œuvre. En ce sens, si le Big Data est globalement reconnu comme le fait de stocker et traiter des masses importantes de données, peut-il se passer dans les faits des objets connectés pour l’acquisition des données, de l’IA et du « machine learning » (lui-même composant de l’IA) pour l’exploitation des données ?
En effet, les systèmes d’information des entreprises, souvent assez hétérogènes, produisent un grand nombre de données, à partir desquelles le Big Data peut générer des indicateurs. Pour autant, et malgré des quantités de données (structurées et non structurées) de plus en plus importantes, les modèles peuvent se heurter à des carences d’informations pour créer des indicateurs pertinents. Lesquelles carences peuvent être compensées par l’IoT et les données qu’ils produisent.
En d’autres termes, aux côtés des briques traditionnelles du système d’information, les objets connectés, quels qu’ils soient jusqu’à « l’automate programmable », sont une source de données quasi inépuisables (acquisition) pour le Big Data (structure de stockage) et ses modèles, notamment à base d’intelligence artificielle et de « machine learning » (traitement/exploitation).
De leur côté, les Big Data, intelligence artificielle et IoT connaissent également leurs lots de différences marginales de points de vue. Mais c’est surtout leurs relations mutuelles qui impactent la définition qu’on en donne et, in fine, leur mise en œuvre. En ce sens, si le Big Data est globalement reconnu comme le fait de stocker et traiter des masses importantes de données, peut-il se passer dans les faits des objets connectés pour l’acquisition des données, de l’IA et du « machine learning » (lui-même composant de l’IA) pour l’exploitation des données ?
En effet, les systèmes d’information des entreprises, souvent assez hétérogènes, produisent un grand nombre de données, à partir desquelles le Big Data peut générer des indicateurs. Pour autant, et malgré des quantités de données (structurées et non structurées) de plus en plus importantes, les modèles peuvent se heurter à des carences d’informations pour créer des indicateurs pertinents. Lesquelles carences peuvent être compensées par l’IoT et les données qu’ils produisent.
En d’autres termes, aux côtés des briques traditionnelles du système d’information, les objets connectés, quels qu’ils soient jusqu’à « l’automate programmable », sont une source de données quasi inépuisables (acquisition) pour le Big Data (structure de stockage) et ses modèles, notamment à base d’intelligence artificielle et de « machine learning » (traitement/exploitation).
L’industrie, moteur d’innovation
À ce jour bien sûr, tous les secteurs d’activité n’ont pas atteint le même stade de maturité, voire que la majorité d’entre eux n’en sont encore qu’aux balbutiements. En la matière, c’est clairement le secteur industriel qui fait figure de pionnier. En effet, les acteurs du secteur y ont très tôt vu leur intérêt tant en termes d’images que de retour sur investissement.
Dans l’industrie en effet, la maintenance prévisionnelle par exemple réduit considérablement les coûts liés au cycle de vie des machines. Tandis que les fabricants d’équipements trouvent dans ces technologies de nouvelles formes de contrats de service et donc de nouvelles sources de revenus.
D’autres secteurs d’activité font aussi de plus en plus appel au triptyque IoT / Big Data / IA. C’est le cas notamment de la logistique, en particulier pour l’optimisation des processus internes à l’entrepôt et des transports, mais également pour la traçabilité des produits.
Le « retail » de son côté y voit de formidables opportunités commerciales grâce aux recommandations d’achats et à la fluidification du parcours client. Quant aux gestionnaires de bâtiments et aux collectivités publiques, la gestion énergétique et une meilleure organisation des transports comptent parmi les applications les plus immédiates des « smart buildings » et « smart cities ».
Quant au secteur bancaire et assurantiel, l’analyse des données environnementales et comportementales permet d’optimiser et de personnaliser les contrats, et ainsi réduire les risques, de façon à gagner en rentabilité.
Dans l’industrie en effet, la maintenance prévisionnelle par exemple réduit considérablement les coûts liés au cycle de vie des machines. Tandis que les fabricants d’équipements trouvent dans ces technologies de nouvelles formes de contrats de service et donc de nouvelles sources de revenus.
D’autres secteurs d’activité font aussi de plus en plus appel au triptyque IoT / Big Data / IA. C’est le cas notamment de la logistique, en particulier pour l’optimisation des processus internes à l’entrepôt et des transports, mais également pour la traçabilité des produits.
Le « retail » de son côté y voit de formidables opportunités commerciales grâce aux recommandations d’achats et à la fluidification du parcours client. Quant aux gestionnaires de bâtiments et aux collectivités publiques, la gestion énergétique et une meilleure organisation des transports comptent parmi les applications les plus immédiates des « smart buildings » et « smart cities ».
Quant au secteur bancaire et assurantiel, l’analyse des données environnementales et comportementales permet d’optimiser et de personnaliser les contrats, et ainsi réduire les risques, de façon à gagner en rentabilité.
La performance des données en question
De façon générale, tous secteurs confondus, les investissements en matière d’objets connectés devraient connaître une accélération fulgurante. Selon IDC, les investissements mondiaux en matière d’IoT devraient atteindre 745 milliards de dollars en 2019, en hausse de plus de 15 % en un an ($ 646 Mds en 2018). Et poursuivre sur des progressions à deux chiffres, pour dépasser la barre symbolique des 1 000 milliards de dollars en 2022.
Autant dire que la source exponentielle des volumes de données n’est pas près de se tarir, sans compter, en parallèle, l’apparition de la 5G et les opportunités business, et donc les données, qui ne manqueront pas de l’accompagner.
Or, pour traiter de tels volumes, les bases de données des applications métiers elles-mêmes, non seulement ne suffisent pas, mais perdraient considérablement en performances. Les modèles actuels ne s’y trompent pas d’ailleurs : dans beaucoup de secteurs, industrie en tête, les bases de données des applications métiers sont régulièrement purgées pour gagner en performances.
Des historiques qu’il n’est pour autant pas question de perdre, car la pertinence et la qualité des modèles prédictifs dépendent directement de la qualité et de la quantité des données, chères au Big Data. Si, dans la très grande majorité des cas, la notion de temps réel, de latence ou de performances revêt moins d’importance que pour les applications métiers, il n’en reste pas moins que les choix structurels en matière de bases de données pour le Big Data est capital.
Un choix qui peut être pluriel, avec duplication de la donnée sur plusieurs bases, en fonction de l’utilité de chacune : acquisition, stockage ou traitement. Le tout sur fond de cloud et de « scalabilité », pour permettre aux systèmes d’évoluer avec les volumes de données. Mais aussi et surtout des modèles économiques clairs et corrélés aux unités de travail et de mesure de chaque secteur, afin de leur permettre d’accompagner l’évolution et la variabilité de leurs activités et services.
Autant dire que la source exponentielle des volumes de données n’est pas près de se tarir, sans compter, en parallèle, l’apparition de la 5G et les opportunités business, et donc les données, qui ne manqueront pas de l’accompagner.
Or, pour traiter de tels volumes, les bases de données des applications métiers elles-mêmes, non seulement ne suffisent pas, mais perdraient considérablement en performances. Les modèles actuels ne s’y trompent pas d’ailleurs : dans beaucoup de secteurs, industrie en tête, les bases de données des applications métiers sont régulièrement purgées pour gagner en performances.
Des historiques qu’il n’est pour autant pas question de perdre, car la pertinence et la qualité des modèles prédictifs dépendent directement de la qualité et de la quantité des données, chères au Big Data. Si, dans la très grande majorité des cas, la notion de temps réel, de latence ou de performances revêt moins d’importance que pour les applications métiers, il n’en reste pas moins que les choix structurels en matière de bases de données pour le Big Data est capital.
Un choix qui peut être pluriel, avec duplication de la donnée sur plusieurs bases, en fonction de l’utilité de chacune : acquisition, stockage ou traitement. Le tout sur fond de cloud et de « scalabilité », pour permettre aux systèmes d’évoluer avec les volumes de données. Mais aussi et surtout des modèles économiques clairs et corrélés aux unités de travail et de mesure de chaque secteur, afin de leur permettre d’accompagner l’évolution et la variabilité de leurs activités et services.
A propos de l'auteur
Didier Lavoine est Directeur Technique et Innovation de Digora, entreprise de service du numérique française spécialiste depuis 20 ans des services managés pour les directions informatiques des entreprises et des organisations.