Jérémy Harroch, PDG de Quantmetry
Le constat est sans appel : ils ont beau avoir augmenté ces derniers mois, les déploiements de projets Big Data en France ne sont pas à la hauteur de l’engouement médiatique suscité par cette nouvelle discipline. Un problème de technicité ? De compétence ? De moyen ? D’initiative ? Un peu de tout cela c’est vrai, mais avant tout un problème organisationnel : le Big Data dans les entreprises est vu tout autant comme une inconnue rentable qu’une matière complexe sur laquelle peu de personnes ont prise. Cette situation est en partie due à la structuration trop rigide des organisations. Explications.
Si les entreprises commencent à être sensibilisées au sujet, elles ne savent ni comment l’entamer, ni qui doit le porter. La direction générale, les directions métiers, la DSI ? Est-il guidé par des cas d’usage, par la disponibilité de nouvelles sources de données, par l’attente d’un retour sur investissement à court terme ? La profusion des angles par lesquels le Big Data peut être attaqué est telle qu’un trop grand nombre d’entreprises n’ose pas se lancer…
Et à ces freins naturels s’ajoutent parfois des enjeux politiques : certains recherchent uniquement dans le Big Data le statut de précurseur. Ils n’ont pourtant ni le sujet, ni la légitimité, ni encore les données pour cela. D’autres au contraire, jouissent de ces trois éléments, mais manquent de budget… Car la logique de rentabilité, surtout en temps de contraction de l’économie, a tendance à n’encourager que les projets au « quick win ».
La simplicité et le pragmatisme doivent guider les projets big data
Trouver la bonne équipe et cadrer correctement les projets, c’est donc là la principale difficulté du Big Data. Du bon sens direz-vous, mais qui ne peut être mis en pratique qu’en chamboulant à minima certaines habitudes managériales et organisationnelles. Celle par exemple de former des équipes projets homogènes, c’est à dire issues d’un même service ou département. La logique du Big Data voudrait à l’inverse que l’on associe des profils en provenance de plusieurs directions, chacun dépositaire de jeux de données qu’il maitrise, et dont l’expertise est indispensable pour l’exploration.
De la même façon, les équipes s’essayant au Big Data risquent gros à ne retenir que des chantiers ambitieux. C’est au contraire la simplicité et le pragmatisme qui doivent les guider. Elles gagnent à reproduire et à s’inspirer des expériences déployées par d’autres services ou d’autres entreprises. Un exemple : l’amélioration de la segmentation d’un CRM avec l’analyse des données de navigation des internautes. Ce mode de croisement est devenu courant. S’il ne nécessite pas de lourds investissements, il découle nécessairement sur des conclusions intéressantes (bien que toutefois limitées). Viendra ensuite le temps des sujets plus originaux, gages d’un véritable avantage compétitif.
Ces premières expériences ont donc le mérite d’identifier d’une part les jeux de données à croiser, d’autre part les axes d’analyse à privilégier. Mais elles sont également précieuses pour attribuer et définir les rôles que chacun jouera dans le projet : déploiement et exploitation des serveurs, qualification et nettoyage des données, développement puis mise en production des algorithmes, etc… Trop souvent, le périmètre de ces fonctions ainsi que les vocabulaires associés (« big data développeur », « datascientist », etc) restent flous, voire confus.
Enfin, les équipes du Big Data doivent impérativement casser avec la conduite traditionnelle de projet. Par essence, on le sait, les investigations menées dans le cadre d’un stockage massif des données sur des clusters Hadoop n’aboutissent pas toujours à des résultats rentables. D’où la nécessité de s’aligner sur les grands principes du lean startup. En particulier sur la culture du test et de l’échec rapide. Objectif : savoir stopper rapidement une piste pourtant séduisante à l’origine. Par exemple, de très bons modèles prédictifs peuvent être construits à partir d’un jeu de données resserré et très riche. Mais appliqués à l’échantillon global, ils ne présentent aucune pertinence et au final, ne sont pas généralisables. Cette souplesse et cette capacité au renoncement doivent imprégner les chantiers Big Data.
Le succès de ces premiers projets reste donc intimement lié à une nouvelle approche organisationnelle. Espérons que les entreprises acceptent de lâcher du lest car cette initiation au Big Data promet de former les cadres amenés à recruter, diriger et orienter les futurs datascientists, tout fraichement diplômés des premiers cursus Big Data. Ces juniors arrivent sur le marché en septembre prochain et renforceront encore la demande, déjà non satisfaite, en profils expérimentés…
Jérémy Harroch, PDG de Quantmetry
Mathématicien et statisticien de formation, issu de la promotion X03 de l’Ecole Polytechnique et diplômé de New York University, Jérémy Harroch a commencé sa carrière dans la finance de marché. Formé dans des fonds de trading tels Lehman Brothers et Knight Capital Group, il s'est notamment spécialisé en arbitrage statistique et en trading algorithmique de très haute fréquence. En 2010, il revient en France pour créer Quantmetry, un cabinet de conseil spécialisé en big data.
Si les entreprises commencent à être sensibilisées au sujet, elles ne savent ni comment l’entamer, ni qui doit le porter. La direction générale, les directions métiers, la DSI ? Est-il guidé par des cas d’usage, par la disponibilité de nouvelles sources de données, par l’attente d’un retour sur investissement à court terme ? La profusion des angles par lesquels le Big Data peut être attaqué est telle qu’un trop grand nombre d’entreprises n’ose pas se lancer…
Et à ces freins naturels s’ajoutent parfois des enjeux politiques : certains recherchent uniquement dans le Big Data le statut de précurseur. Ils n’ont pourtant ni le sujet, ni la légitimité, ni encore les données pour cela. D’autres au contraire, jouissent de ces trois éléments, mais manquent de budget… Car la logique de rentabilité, surtout en temps de contraction de l’économie, a tendance à n’encourager que les projets au « quick win ».
La simplicité et le pragmatisme doivent guider les projets big data
Trouver la bonne équipe et cadrer correctement les projets, c’est donc là la principale difficulté du Big Data. Du bon sens direz-vous, mais qui ne peut être mis en pratique qu’en chamboulant à minima certaines habitudes managériales et organisationnelles. Celle par exemple de former des équipes projets homogènes, c’est à dire issues d’un même service ou département. La logique du Big Data voudrait à l’inverse que l’on associe des profils en provenance de plusieurs directions, chacun dépositaire de jeux de données qu’il maitrise, et dont l’expertise est indispensable pour l’exploration.
De la même façon, les équipes s’essayant au Big Data risquent gros à ne retenir que des chantiers ambitieux. C’est au contraire la simplicité et le pragmatisme qui doivent les guider. Elles gagnent à reproduire et à s’inspirer des expériences déployées par d’autres services ou d’autres entreprises. Un exemple : l’amélioration de la segmentation d’un CRM avec l’analyse des données de navigation des internautes. Ce mode de croisement est devenu courant. S’il ne nécessite pas de lourds investissements, il découle nécessairement sur des conclusions intéressantes (bien que toutefois limitées). Viendra ensuite le temps des sujets plus originaux, gages d’un véritable avantage compétitif.
Ces premières expériences ont donc le mérite d’identifier d’une part les jeux de données à croiser, d’autre part les axes d’analyse à privilégier. Mais elles sont également précieuses pour attribuer et définir les rôles que chacun jouera dans le projet : déploiement et exploitation des serveurs, qualification et nettoyage des données, développement puis mise en production des algorithmes, etc… Trop souvent, le périmètre de ces fonctions ainsi que les vocabulaires associés (« big data développeur », « datascientist », etc) restent flous, voire confus.
Enfin, les équipes du Big Data doivent impérativement casser avec la conduite traditionnelle de projet. Par essence, on le sait, les investigations menées dans le cadre d’un stockage massif des données sur des clusters Hadoop n’aboutissent pas toujours à des résultats rentables. D’où la nécessité de s’aligner sur les grands principes du lean startup. En particulier sur la culture du test et de l’échec rapide. Objectif : savoir stopper rapidement une piste pourtant séduisante à l’origine. Par exemple, de très bons modèles prédictifs peuvent être construits à partir d’un jeu de données resserré et très riche. Mais appliqués à l’échantillon global, ils ne présentent aucune pertinence et au final, ne sont pas généralisables. Cette souplesse et cette capacité au renoncement doivent imprégner les chantiers Big Data.
Le succès de ces premiers projets reste donc intimement lié à une nouvelle approche organisationnelle. Espérons que les entreprises acceptent de lâcher du lest car cette initiation au Big Data promet de former les cadres amenés à recruter, diriger et orienter les futurs datascientists, tout fraichement diplômés des premiers cursus Big Data. Ces juniors arrivent sur le marché en septembre prochain et renforceront encore la demande, déjà non satisfaite, en profils expérimentés…
Jérémy Harroch, PDG de Quantmetry
Mathématicien et statisticien de formation, issu de la promotion X03 de l’Ecole Polytechnique et diplômé de New York University, Jérémy Harroch a commencé sa carrière dans la finance de marché. Formé dans des fonds de trading tels Lehman Brothers et Knight Capital Group, il s'est notamment spécialisé en arbitrage statistique et en trading algorithmique de très haute fréquence. En 2010, il revient en France pour créer Quantmetry, un cabinet de conseil spécialisé en big data.
Autres articles
-
Capgemini signe un accord en vue d’acquérir Quantmetry pour enrichir ses compétences en conseil en IA et data en France
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines
-
De quelle façon trois générations de disques durs Toshiba ont aidé le plus grand laboratoire de physique du monde à conserver, chaque seconde, des centaines de téraoctets de données générées par les expériences du LHC
-
Big Data & Big Brother : de l’intérêt de connaître notre ADN