Philippe LACASSAIGNE, Réseau'Nable
Comme vous le savez, les Big Data sont une rupture en tant que concept. Je vous renvoie vers l'un des articles de Chris Anderson (Wired) qui en 2008 (déjà!) a posé l'enjeu du déluge de données pour la méthode scientifique. http://www.wired.com/science/discoveries/magazine/16-07/pb_theory
La méthode scientifique a largement contribué aux avancées techniques de tout temps pour que nous ne posions pas maintenant, un cadre méthodologique validant les prochaines innovations technologiques. Chris Anderson évoque une certaine mathématisation des sciences qui, comme on le voit aujourd'hui, entraîne une vague de conceptualisation sans précédent.
Mais, je ne suis pas persuadé qu'une nouvelle épistémologie de la connaissance naîtra de ces efforts de conceptualisation. Si l'on n'attend juste que les Big Data soient une manière de faire mieux, de façon plus optimisée, SOIT, pourquoi pas, mais que l'on n'en attende pas alors de véritables ruptures technologiques.
Pourquoi et je ne l'invente pas ! Le modèle et la théorie ne permettent pas de tout expliquer malgré qu’ils permettent de décrire une réalité du monde. En effet, chaque modèle, chaque théorie porte ses propres conditions d’invalidation. Il n’est plus suffisant de mathématiser à fond un problème pour le comprendre car les axiomes n’offrent qu’une solution acceptable, celle de celui, celle ou ceux qui la conçoivent aidé par les connaissances du moment. Par essence, cette solution peut être valable mais elle demeure profondément incomplète. C’est d’ailleurs comme cela que les sciences évoluent par avancées successives. C'est une expérience de l’incomplétude qui se fait au quotidien surtout lorsqu’il est question d’éprouver les modèles par l’expérimentation. D’une part, les modèles n’expliquent pas tout. Par exemple, ils permettent de spécifier un problème mais apportent-ils une méthode générique qui permet de décrire comment nous conceptualisons, comment nous engendrons et développons du sens. D’autre part, l’expérience révèle des zones d’ombre que le modèle n’éclaire pas toujours. Eh oui, il y a des phénomènes que l'on explique pas mais que l'on interprète, et la théorie est bien pour cela...
Aussi, cette question de l’incomplétude revient remettre en cause nos représentations du monde ce qui nous renvoie vers une nouvelle épistémologie de la connaissance.
Les Big Data sont indissociables des méthodes mathématisées de la connaissance. Aujourd'hui, notre vision du monde est fondé sur un principe anthropique qui impacte directement le concept de Big Data. À partir de celui-ci, nous réalisons déjà de grandes prouesses techniques alors que nous sommes incapables d’exprimer les fondements de toute connaissance.
Alors, cela implique beaucoup de choses sur notre façon d’appréhender le concept de Big Data pour lequel des débats s’imposent à un 1er niveau autour des méthodes qui nous incitent à comprendre les modèles que nous concevons. C’est très concret car cette démarche est à la source de la conception matérielle et logicielle.
Toute entreprise voudra faire mieux avec les capacités actuelles de son système d'information. Elle voudra réduire ses coûts de développement, se garantir des économies d'échelle tout en améliorant la satisfaction des utilisateurs, des clients. C'est le défi informatique du parallélisme distribué pour garantir une grande puissance de calcul et/ou de réduire la consommation. Avec les Big Data, il y aura encore plus de ressources matérielles et l'enjeu actuel des éditeurs est d'optimiser les algorithmes pour maintenir la puissance de calcul.
Néanmoins, je pense que cet enjeu ne se situe plus au niveau des technologies actuelles. Bien entendu, on continuera à faire des gains (vitesse d’exécution,…) mais au niveau des méthodes qui expriment comment la connaissance se créée.
JE M'EXPLIQUE :
Si l'on reprend la courbe de la conception VS des technologies, alors que le process de technologies autorise un accroissement de la complexité de 59%/an, l'efficacité de conception n'augmente que de 25%/an. Or, qui dit conception implique une certaine rigueur méthodologique. Et, la conception implique nécessairement les représentations du monde de celui qui conçoit. Il est au demeurant lui même observateur d'un phénomène qui l'influence en retour. Cette représentation du réel demeure incomplète et dans le cadre de la conception matérielle et logicielle est source d'erreurs, de problèmes et de dysfonctionnements. C'est la raison pour laquelle, l'innovation en conception est aujourd'hui vue sous l'angle du co-design, pour partager des points de vue sur les modèles produits. Mais dans le fond, nous reviendrons toujours sur ces modèles malgré les premiers consensus établit dans leurs spécifications. En effet, il y a risque méthodologique connu dans le domaine de simulation numérique qui consiste à superposer anarchiquement sur les équipements les différents points de vue à l’origine de leur genèse. Or, lorsqu'il faut intervenir, Il devient très difficile de les reconstituer à posteriori lors de réingénieries successives.
Ainsi, les avancées technologiques des Big Data de demain sont bien ancrées dans une nouvelle épistémologie de la connaissance. Par exemple, si je reviens à l'exemple plus haut, la conception matérielle et logicielle implique un cadre méthodologique rigoureux à la construction de toute connaissance et, ce faisant définit aussi la structure d’accueil de tout processus innovant d’où émerge une nouvelle réalité.
Pour cela, je légitime de nouvelles méthodes qui participent à une nouvelle épistémologie de la connaissance. Celles-ci existent mais sont très peu connues. Il faut leur donner une audience et inciter les éditeurs à les expérimenter dans le cadre d'une R&D ambitieuse porté par l'état français.
Il est donc crucial que la future filière Big Data propose une réflexion sur cette nouvelle épistémologie de la connaissance sans laquelle il ne pourra y avoir dans les prochaines années de ruptures technologiques.
La méthode scientifique a largement contribué aux avancées techniques de tout temps pour que nous ne posions pas maintenant, un cadre méthodologique validant les prochaines innovations technologiques. Chris Anderson évoque une certaine mathématisation des sciences qui, comme on le voit aujourd'hui, entraîne une vague de conceptualisation sans précédent.
Mais, je ne suis pas persuadé qu'une nouvelle épistémologie de la connaissance naîtra de ces efforts de conceptualisation. Si l'on n'attend juste que les Big Data soient une manière de faire mieux, de façon plus optimisée, SOIT, pourquoi pas, mais que l'on n'en attende pas alors de véritables ruptures technologiques.
Pourquoi et je ne l'invente pas ! Le modèle et la théorie ne permettent pas de tout expliquer malgré qu’ils permettent de décrire une réalité du monde. En effet, chaque modèle, chaque théorie porte ses propres conditions d’invalidation. Il n’est plus suffisant de mathématiser à fond un problème pour le comprendre car les axiomes n’offrent qu’une solution acceptable, celle de celui, celle ou ceux qui la conçoivent aidé par les connaissances du moment. Par essence, cette solution peut être valable mais elle demeure profondément incomplète. C’est d’ailleurs comme cela que les sciences évoluent par avancées successives. C'est une expérience de l’incomplétude qui se fait au quotidien surtout lorsqu’il est question d’éprouver les modèles par l’expérimentation. D’une part, les modèles n’expliquent pas tout. Par exemple, ils permettent de spécifier un problème mais apportent-ils une méthode générique qui permet de décrire comment nous conceptualisons, comment nous engendrons et développons du sens. D’autre part, l’expérience révèle des zones d’ombre que le modèle n’éclaire pas toujours. Eh oui, il y a des phénomènes que l'on explique pas mais que l'on interprète, et la théorie est bien pour cela...
Aussi, cette question de l’incomplétude revient remettre en cause nos représentations du monde ce qui nous renvoie vers une nouvelle épistémologie de la connaissance.
Les Big Data sont indissociables des méthodes mathématisées de la connaissance. Aujourd'hui, notre vision du monde est fondé sur un principe anthropique qui impacte directement le concept de Big Data. À partir de celui-ci, nous réalisons déjà de grandes prouesses techniques alors que nous sommes incapables d’exprimer les fondements de toute connaissance.
Alors, cela implique beaucoup de choses sur notre façon d’appréhender le concept de Big Data pour lequel des débats s’imposent à un 1er niveau autour des méthodes qui nous incitent à comprendre les modèles que nous concevons. C’est très concret car cette démarche est à la source de la conception matérielle et logicielle.
Toute entreprise voudra faire mieux avec les capacités actuelles de son système d'information. Elle voudra réduire ses coûts de développement, se garantir des économies d'échelle tout en améliorant la satisfaction des utilisateurs, des clients. C'est le défi informatique du parallélisme distribué pour garantir une grande puissance de calcul et/ou de réduire la consommation. Avec les Big Data, il y aura encore plus de ressources matérielles et l'enjeu actuel des éditeurs est d'optimiser les algorithmes pour maintenir la puissance de calcul.
Néanmoins, je pense que cet enjeu ne se situe plus au niveau des technologies actuelles. Bien entendu, on continuera à faire des gains (vitesse d’exécution,…) mais au niveau des méthodes qui expriment comment la connaissance se créée.
JE M'EXPLIQUE :
Si l'on reprend la courbe de la conception VS des technologies, alors que le process de technologies autorise un accroissement de la complexité de 59%/an, l'efficacité de conception n'augmente que de 25%/an. Or, qui dit conception implique une certaine rigueur méthodologique. Et, la conception implique nécessairement les représentations du monde de celui qui conçoit. Il est au demeurant lui même observateur d'un phénomène qui l'influence en retour. Cette représentation du réel demeure incomplète et dans le cadre de la conception matérielle et logicielle est source d'erreurs, de problèmes et de dysfonctionnements. C'est la raison pour laquelle, l'innovation en conception est aujourd'hui vue sous l'angle du co-design, pour partager des points de vue sur les modèles produits. Mais dans le fond, nous reviendrons toujours sur ces modèles malgré les premiers consensus établit dans leurs spécifications. En effet, il y a risque méthodologique connu dans le domaine de simulation numérique qui consiste à superposer anarchiquement sur les équipements les différents points de vue à l’origine de leur genèse. Or, lorsqu'il faut intervenir, Il devient très difficile de les reconstituer à posteriori lors de réingénieries successives.
Ainsi, les avancées technologiques des Big Data de demain sont bien ancrées dans une nouvelle épistémologie de la connaissance. Par exemple, si je reviens à l'exemple plus haut, la conception matérielle et logicielle implique un cadre méthodologique rigoureux à la construction de toute connaissance et, ce faisant définit aussi la structure d’accueil de tout processus innovant d’où émerge une nouvelle réalité.
Pour cela, je légitime de nouvelles méthodes qui participent à une nouvelle épistémologie de la connaissance. Celles-ci existent mais sont très peu connues. Il faut leur donner une audience et inciter les éditeurs à les expérimenter dans le cadre d'une R&D ambitieuse porté par l'état français.
Il est donc crucial que la future filière Big Data propose une réflexion sur cette nouvelle épistémologie de la connaissance sans laquelle il ne pourra y avoir dans les prochaines années de ruptures technologiques.
Autres articles
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines
-
De quelle façon trois générations de disques durs Toshiba ont aidé le plus grand laboratoire de physique du monde à conserver, chaque seconde, des centaines de téraoctets de données générées par les expériences du LHC
-
Big Data & Big Brother : de l’intérêt de connaître notre ADN
-
Livre : Big Data, le traitement streaming et temps réel des données