Certains pays sont en retard, inutile de le nier
A l’exception notable de la Grande-Bretagne qui « copie » son modèle d’outre-Atlantique et lui sert parfois de laboratoire européen, les projets Big Data innovants tardent à se développer en Europe. Amélioration de la détection de fraude à la carte bancaire, identification des fraudeurs aux prestations sociales en Italie ou en Grande-Bretagne, identification des montages de remboursement de TVA intra-européens, prédiction des pannes de machines industrielles, analyse de la consommation électrique au travers des compteurs intelligents… les exemples commencent juste à se multiplier de projets faisant intervenir ces fameuses données volumineuses. Mais tous les pays ne semblent pas gagnés à la même vitesse, par la vague de l’analyse des données.
Alors faut-il reprendre la fable du Lièvre et de la Tortue, qui nous apprend qu’il vaut mieux aller lentement mais surement dans la bonne direction plutôt que de s’éparpiller ? Certains disent que la France est un moteur diesel, lent à démarrer, mais qui ne s’arrête ensuite pas avant de très nombreux kilomètres. D’autres pensent au contraire que le monde a changé et que l’agilité est aujourd’hui primordiale. Et que cette agilité nécessite d’aller vite, pour expérimenter, se tromper, corriger, recommencer.
Laquelle des deux méthodes est la meilleure ? Bien malin serait celui qui oserait une réponse. Incontestablement le monde anglo-saxon est plus agile, prend plus de risques, mais globalise moins, tandis que le monde latin tend à globaliser tout problème avant de lui apporter un début de solution, tout est prévu, mais parfois le temps de réflexion fait que les autres initiatives ont abouti que le projet latin n’est encore qu’à l’étape de la réflexion.
Deux conceptions du progrès s’affrontent en matière de Big Data : globaliser pour réfléchir à la meilleure solution puis l’implémenter vs. Expérimenter et corriger au fur et à mesure de l’avancement vers l’objectif final.
Alors faut-il reprendre la fable du Lièvre et de la Tortue, qui nous apprend qu’il vaut mieux aller lentement mais surement dans la bonne direction plutôt que de s’éparpiller ? Certains disent que la France est un moteur diesel, lent à démarrer, mais qui ne s’arrête ensuite pas avant de très nombreux kilomètres. D’autres pensent au contraire que le monde a changé et que l’agilité est aujourd’hui primordiale. Et que cette agilité nécessite d’aller vite, pour expérimenter, se tromper, corriger, recommencer.
Laquelle des deux méthodes est la meilleure ? Bien malin serait celui qui oserait une réponse. Incontestablement le monde anglo-saxon est plus agile, prend plus de risques, mais globalise moins, tandis que le monde latin tend à globaliser tout problème avant de lui apporter un début de solution, tout est prévu, mais parfois le temps de réflexion fait que les autres initiatives ont abouti que le projet latin n’est encore qu’à l’étape de la réflexion.
Deux conceptions du progrès s’affrontent en matière de Big Data : globaliser pour réfléchir à la meilleure solution puis l’implémenter vs. Expérimenter et corriger au fur et à mesure de l’avancement vers l’objectif final.
Certaines méthodes fonctionnent mieux que d’autres
Il suffit pourtant de remonter une décennie en arrière pour trouver des éléments de comparaison. Rappelez vous la vague des « dotcoms ». Lorsque les murs des capitales étaient recouverts d’affiches publicitaires vantant les mérites d’un site web quelconque, qui avait juste levé de l’argent, sans aucun modèle économique, et le dépensait pour se créer une clientèle potentielle. Que reste-t-il des dotcoms aujourd’hui ? Et bien il reste quelques pépites, comme FNAC.com par exemple. Et comment a été développé FNAC.com ? Comme une startup. Les dirigeants de la FNAC avaient alors bien conscience que si le projet de site de commerce électronique se créait avec les magasins physiques, la lourdeur du processus ne permettrait pas de répondre à la demande du marché dans des délais raisonnables. Plutôt que de globaliser, la FNAC a expérimenté. Une équipe a été réunie, en dehors des locaux traditionnels de la FNAC, et a développé son offre, indépendamment des magasins existants. C’est cette agilité qui a permis à FNAC.com de prendre la position qu’il a aujourd’hui. L’intégration avec le système d’information des magasins n’a été réalisée que bien plus tard.
C’est également le cas aujourd’hui dans certains projets Big Data. Lorsque Air France imagine interconnecter les médias sociaux et son système de réservation pour vous permettre de choisir votre siège en fonction de vos contacts LinkedIn présents dans le même avion, ils ne remettent pas en cause l’ensemble de leur infrastructure informatique. Ils choisissent KLM, et quelques vols, pour tester cette nouvelle fonctionnalité. Peut-être sera-t-elle un jour généralisée, mais en attendant le risque est minimisé.
Lorsque Mobiliz au Québec lance une offre d’assurances pour les bons jeunes conducteurs, basée sur la modélisation des données issues d’un boitier connecté à leur automobile, ils ne modifient pas l’ensemble de leurs modèles économiques. Ils lancent une nouvelle offre, bien ciblée, et attendent les premiers retours avant d’envisager de la généraliser.
Lorsque Budweiser se lance dans les objets connectés pour créer un canal de communication avec les buveurs de bière, analyser leur comportement et leurs préférences, ils choisissent les matchs de Hockey au Québec et commercialisent la lumière de but. Pour peut-être dans le futur étendre cela à d’autres sports, mondialement appréciés.
Nous pourrions prendre de très nombreux exemples. Une constante apparaît. Tous les projets Big Data réussis à ce jour, ont commencé petit. Petit et vite. Petit pour aller vite. La phase de globalisation n’intervient éventuellement que par la suite.
Il y a ainsi deux conceptions de la gestion du risque. Soit on envisage tous les risques avant de lancer le projet… et sans doute ne le sera-t-il jamais, ou trop tard. Soit on prend un risque limité, en réalisant un projet moins impactant. Si ce projet est un échec, le montant perdu sera bien plus faible. Si le projet est un succès, il coutera un peu plus cher à généraliser, mais le risque aura été minimisé.
Ma préférence va clairement à la deuxième assertion, expérimenter vite et réduire les risques. Mais cela va parfois à l’encontre des cultures d’entreprises françaises. Je rencontrais récemment le directeur des systèmes d’information d’un assureur français. Son titre exact précisait qu’il était en charge du projet de refonte globale du système d’information décisionnel vers le Big Data… inutile de vous dire que cela ne respire pas l’agilité !
C’est également le cas aujourd’hui dans certains projets Big Data. Lorsque Air France imagine interconnecter les médias sociaux et son système de réservation pour vous permettre de choisir votre siège en fonction de vos contacts LinkedIn présents dans le même avion, ils ne remettent pas en cause l’ensemble de leur infrastructure informatique. Ils choisissent KLM, et quelques vols, pour tester cette nouvelle fonctionnalité. Peut-être sera-t-elle un jour généralisée, mais en attendant le risque est minimisé.
Lorsque Mobiliz au Québec lance une offre d’assurances pour les bons jeunes conducteurs, basée sur la modélisation des données issues d’un boitier connecté à leur automobile, ils ne modifient pas l’ensemble de leurs modèles économiques. Ils lancent une nouvelle offre, bien ciblée, et attendent les premiers retours avant d’envisager de la généraliser.
Lorsque Budweiser se lance dans les objets connectés pour créer un canal de communication avec les buveurs de bière, analyser leur comportement et leurs préférences, ils choisissent les matchs de Hockey au Québec et commercialisent la lumière de but. Pour peut-être dans le futur étendre cela à d’autres sports, mondialement appréciés.
Nous pourrions prendre de très nombreux exemples. Une constante apparaît. Tous les projets Big Data réussis à ce jour, ont commencé petit. Petit et vite. Petit pour aller vite. La phase de globalisation n’intervient éventuellement que par la suite.
Il y a ainsi deux conceptions de la gestion du risque. Soit on envisage tous les risques avant de lancer le projet… et sans doute ne le sera-t-il jamais, ou trop tard. Soit on prend un risque limité, en réalisant un projet moins impactant. Si ce projet est un échec, le montant perdu sera bien plus faible. Si le projet est un succès, il coutera un peu plus cher à généraliser, mais le risque aura été minimisé.
Ma préférence va clairement à la deuxième assertion, expérimenter vite et réduire les risques. Mais cela va parfois à l’encontre des cultures d’entreprises françaises. Je rencontrais récemment le directeur des systèmes d’information d’un assureur français. Son titre exact précisait qu’il était en charge du projet de refonte globale du système d’information décisionnel vers le Big Data… inutile de vous dire que cela ne respire pas l’agilité !
Alors, la France est-elle en retard ?
Oui, très certainement, mais pas en matière de développement. Nous sommes en retard en matière d’usages.
La France forme les meilleurs ingénieurs informatiques du monde, tout le monde le dit et je ne peux qu’approuver. Nos meilleurs ingénieurs du monde développent donc les meilleurs produits du monde, c’est évident ! Et chaque jour où je rencontre de nouvelles jeunes pousses qui viennent me présenter une technologie innovante, je suis impressionné par la qualité de la recherche et du développement, la profondeur des concepts mathématiques utilisés, le savoir de ces développeurs de génie.
Mais en même temps, tous me disent un peu la même chose : nous avons développé un superbe produit, mais nous manquons de clients.
Cela m’amène plusieurs réflexions. Premièrement, cela signifie que nos ingénieurs ont sans doute développé leur merveille sans s’assurer au préalable qu’elle répondait à un besoin, à une « souffrance » comme dirait un bon commercial. Car si leur produit répondait à un besoin évident, l’entreprise aurait identifié ses prospects avant même de commencer le développement.
Rappelez-vous encore une fois un peu les temps anciens… les années 80, quand les premiers progiciels ont été développés. La plupart des éditeurs de logiciels naissants étaient en réalité des SSII, des prestataires, qui avaient identifié un besoin précis chez un client, le développait pour lui, puis généralisaient leur logiciel en le proposant à d’autres. Là encore, étape par étape, expérimentation, agilité, et maitrise du risque.
Pourquoi ne procède-t-on plus ainsi ?
Autre remarque récurrente, si les créateurs d’entreprises français sont d’excellents ingénieurs, ils sont souvent de piètres marketeurs, et des vendeurs plus que moyens.
Et si les américains sont capables de vous faire signer un bon de commande sur la base d’une simple présentation Powerpoint avant d’avoir développé la première ligne de code, les français semblent paralysés à l’idée de vendre un produit qui n’aurait pas été testé sous toutes ses coutures et n’aurait pas obtenu ses vaccins et certifications variés. Les deux extrêmes sont mauvais.
C’est d’ailleurs sans doute pour cela que les ingénieurs français sont tant appréciés aux Etats-Unis : laissez nous faire le marketing, nous vous confions le développement.
La France forme les meilleurs ingénieurs informatiques du monde, tout le monde le dit et je ne peux qu’approuver. Nos meilleurs ingénieurs du monde développent donc les meilleurs produits du monde, c’est évident ! Et chaque jour où je rencontre de nouvelles jeunes pousses qui viennent me présenter une technologie innovante, je suis impressionné par la qualité de la recherche et du développement, la profondeur des concepts mathématiques utilisés, le savoir de ces développeurs de génie.
Mais en même temps, tous me disent un peu la même chose : nous avons développé un superbe produit, mais nous manquons de clients.
Cela m’amène plusieurs réflexions. Premièrement, cela signifie que nos ingénieurs ont sans doute développé leur merveille sans s’assurer au préalable qu’elle répondait à un besoin, à une « souffrance » comme dirait un bon commercial. Car si leur produit répondait à un besoin évident, l’entreprise aurait identifié ses prospects avant même de commencer le développement.
Rappelez-vous encore une fois un peu les temps anciens… les années 80, quand les premiers progiciels ont été développés. La plupart des éditeurs de logiciels naissants étaient en réalité des SSII, des prestataires, qui avaient identifié un besoin précis chez un client, le développait pour lui, puis généralisaient leur logiciel en le proposant à d’autres. Là encore, étape par étape, expérimentation, agilité, et maitrise du risque.
Pourquoi ne procède-t-on plus ainsi ?
Autre remarque récurrente, si les créateurs d’entreprises français sont d’excellents ingénieurs, ils sont souvent de piètres marketeurs, et des vendeurs plus que moyens.
Et si les américains sont capables de vous faire signer un bon de commande sur la base d’une simple présentation Powerpoint avant d’avoir développé la première ligne de code, les français semblent paralysés à l’idée de vendre un produit qui n’aurait pas été testé sous toutes ses coutures et n’aurait pas obtenu ses vaccins et certifications variés. Les deux extrêmes sont mauvais.
C’est d’ailleurs sans doute pour cela que les ingénieurs français sont tant appréciés aux Etats-Unis : laissez nous faire le marketing, nous vous confions le développement.
Le rôle de l’Etat n’est pas de remplacer le marché
En France, l’Etat omniprésent a décidé de se préoccuper de Big Data. Sous l’égide de l’ex-Ministre Fleur Pellerin, dont en ce jour « sans gouvernement » on ne sait si elle sera reconduite ou remplacée, une initiative Big Data a vu le jour. Initiative confiée à de grands acteurs influents mais pas forcément très agiles (Capgemini, Dassault Systèmes…), ce plan Big Data a été conçu par l’AFDEL, l’association qui regroupe les éditeurs de logiciels. Il est donc clairement orienté vers leurs propres besoins. Il conduit à financer la filière elle-même plutôt que le développement des usages.
D’abord, je ne comprends pas cette obsession française à mettre de l’Etat partout. On se plaint en permanence de la lourdeur de notre mille-feuille administratif, mais dès qu’on le peut, on appelle l’Etat à l’aide. Un peu comme ces entrepreneurs, rapides à critiquer les politiques et à s’auto-appeler de différents noms d’oiseaux, mais qui sont les premiers à réclamer leur « selfie » ou leur « hug » avec le pouvoir politique. En France, on aime détester et critiquer le pouvoir, mais dès qu’on peut s’en approcher, on se met à l’adorer…
Et pourquoi l’Etat continue-t-il à financer la R&D, alors que nous avons déjà dit avoir les meilleurs développeurs du monde, plutôt que de financer le marketing et le développement commercial de nos sociétés, qui ont du mal à franchir l’étape des laboratoires de développement. Ne faudrait-il pas repositionner ces millions vers la conquête de marchés, plutôt que pour développer des joyaux logiciels… que personne n’achètera car ils n’auront plus les ressources nécessaires pour se faire connaître.
Jamel Labed, Président de l’AFDEL, expliquait en juillet dernier : « ce que nous voulons c'est faire de la France un pôle d'expertise mondiale du Big Data, ni plus ni moins ». Bravo, mais plutôt qu’un pôle d’experts, ne faudrait-il pas bâtir un pôle de vendeurs, ou au moins des deux ?
Aux Etats-Unis, où le Président Obama avait lancé une initiative en janvier 2012 i[[déjà… janviers 2012..]]i les 200 millions de dollars ont été investis dans des projets de recherche universitaires et gouvernementaux, dans les domaines de la géologie, de la santé, de l’armée. En France, pourquoi continuons-nous à financer ainsi des sociétés privées à coups de millions d’euros ? Cet argent ne créé pas de valeur, il ne s’agit que d’un transfert d’une poche à une autre. L’argent public n’a pas vocation à remplacer la commande privée et le développement des marchés.
Est-ce que les projets de progiciels de paie comme Louvois, ou le projet Chorus, ou les projets de « cloud souverain » ont montré que les centaines de millions d’euros apportés sur un plateau à nos SSII nationales (et à un grand éditeur de logiciels allemand) ont été bien utilisés… je ne crois pas. Certes, vous allez me répondre que cela permet de soutenir l’emploi… d’accord, alors, disons le officiellement !
En matière de Big Data, comme dans d’autres domaines, si l’Etat veut aider les entreprises, c’est en soutenant leurs points faibles qu’il doit le faire : la promotion et la commercialisation. Soutenir la demande, plutôt que de créer artificiellement une offre.
D’abord, je ne comprends pas cette obsession française à mettre de l’Etat partout. On se plaint en permanence de la lourdeur de notre mille-feuille administratif, mais dès qu’on le peut, on appelle l’Etat à l’aide. Un peu comme ces entrepreneurs, rapides à critiquer les politiques et à s’auto-appeler de différents noms d’oiseaux, mais qui sont les premiers à réclamer leur « selfie » ou leur « hug » avec le pouvoir politique. En France, on aime détester et critiquer le pouvoir, mais dès qu’on peut s’en approcher, on se met à l’adorer…
Et pourquoi l’Etat continue-t-il à financer la R&D, alors que nous avons déjà dit avoir les meilleurs développeurs du monde, plutôt que de financer le marketing et le développement commercial de nos sociétés, qui ont du mal à franchir l’étape des laboratoires de développement. Ne faudrait-il pas repositionner ces millions vers la conquête de marchés, plutôt que pour développer des joyaux logiciels… que personne n’achètera car ils n’auront plus les ressources nécessaires pour se faire connaître.
Jamel Labed, Président de l’AFDEL, expliquait en juillet dernier : « ce que nous voulons c'est faire de la France un pôle d'expertise mondiale du Big Data, ni plus ni moins ». Bravo, mais plutôt qu’un pôle d’experts, ne faudrait-il pas bâtir un pôle de vendeurs, ou au moins des deux ?
Aux Etats-Unis, où le Président Obama avait lancé une initiative en janvier 2012 i[[déjà… janviers 2012..]]i les 200 millions de dollars ont été investis dans des projets de recherche universitaires et gouvernementaux, dans les domaines de la géologie, de la santé, de l’armée. En France, pourquoi continuons-nous à financer ainsi des sociétés privées à coups de millions d’euros ? Cet argent ne créé pas de valeur, il ne s’agit que d’un transfert d’une poche à une autre. L’argent public n’a pas vocation à remplacer la commande privée et le développement des marchés.
Est-ce que les projets de progiciels de paie comme Louvois, ou le projet Chorus, ou les projets de « cloud souverain » ont montré que les centaines de millions d’euros apportés sur un plateau à nos SSII nationales (et à un grand éditeur de logiciels allemand) ont été bien utilisés… je ne crois pas. Certes, vous allez me répondre que cela permet de soutenir l’emploi… d’accord, alors, disons le officiellement !
En matière de Big Data, comme dans d’autres domaines, si l’Etat veut aider les entreprises, c’est en soutenant leurs points faibles qu’il doit le faire : la promotion et la commercialisation. Soutenir la demande, plutôt que de créer artificiellement une offre.
Et s’il nous manquait simplement la Volonté ?
Volume, Vitesse, Variété… et certains ont ajouté Visualisation, Valeur. Mais après quatre années de Big Data, le constat est clair. Il ne nous manque pas grand-chose pour avancer et tirer partie de ce siècle de la donnée qui nous a ouvert ses portes. Sans doute nous manque-t-il un peu de Volonté.
Oser, expérimenter, prendre quelques risques calculés, transformer par petites touches, mais avancer ! Pour cela il suffit parfois de le vouloir. Les directeurs informatiques qui ont atteint la cinquantaine seraient-ils frileux à l’idée d’investiguer ces nouveaux territoires ? Qui sera le Jacques Cartier de la donnée dans votre entreprise ? L’informatique ou les responsables d’affaires ? A vous de choisir. Mais mettez-y un peu du « V » de la bonne Volonté ☺
Oser, expérimenter, prendre quelques risques calculés, transformer par petites touches, mais avancer ! Pour cela il suffit parfois de le vouloir. Les directeurs informatiques qui ont atteint la cinquantaine seraient-ils frileux à l’idée d’investiguer ces nouveaux territoires ? Qui sera le Jacques Cartier de la donnée dans votre entreprise ? L’informatique ou les responsables d’affaires ? A vous de choisir. Mais mettez-y un peu du « V » de la bonne Volonté ☺
Autres articles
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines
-
De quelle façon trois générations de disques durs Toshiba ont aidé le plus grand laboratoire de physique du monde à conserver, chaque seconde, des centaines de téraoctets de données générées par les expériences du LHC
-
Big Data & Big Brother : de l’intérêt de connaître notre ADN
-
Livre : Big Data, le traitement streaming et temps réel des données