Dans un an, les entreprises européennes devront se conformer à la nouvelle Réglementation européenne sur la protection des données à caractères personnels (RGPD ou GDPR, pour General Data Protection Regulation). Ce nouveau règlement va contraindre les entreprises sur la collecte et l'usage des données personnelles, sur la sécurité, le droit à l'oubli et la portabilité des données. Il s'agit d'un véritable effort pour les entreprises qui, doivent faire face à l'explosion des données avec l'émergence du Big Data, de l'IoT et de l'intelligence artificielle. En effet, 90% des données actuelles ont été produites au cours des deux dernières années. Selon le Gartner, 26 milliards d'objets seront connectés dans le monde en 2020 et 6 milliards pourraient bénéficier d'intelligence artificielle dès l'année prochaine. D'autres études dévoilent que chaque foyer serait en mesure d'avoir une trentaine d'objets intelligents à disposition, pouvant être capable de détecter un dysfonctionnement, ou de reproduire un mouvement. Big Data, IoT et Intelligence artificielle puisent leur raison d'être dans la data, et ce quelle que soit sa forme (vidéo, texte, chiffre, son, dessin, graphique, etc.) et sa provenance : open data, études, indicateurs, bases de données, etc. Or dans quelques mois, la RGPD imposera des conditions plus restrictives sur l'exploitation des données à caractères personnels.
GDPR : Suivre le traitement de la donnée à l'aide de registres
L'idée serait donc de continuer l'exploitation de cette donnée socle, de toutes ces nouvelles technologies, tout en respectant la GDPR. Mais comment y parvenir ? Dans ce nouveau règlement, certains volets concernent l'information des entreprises envers leurs clients ou utilisateurs autour notamment de la transparence sur la finalité de l'utilisation de la donnée, ou du renforcement des conditions de consentement de l'utilisation des données à caractères personnels. En revanche, d'autres volets ont une incidence sur l'organisation et le système d'information de l'entreprise. Ainsi, les entreprises sont contraintes, de par la nouvelle réglementation, d'indiquer comment elles exploitent, utilisent et stockent les données. En effet, selon le principe d'« accountability » spécifié dans la RGPD, toutes les entreprises doivent installer une véritable gestion de la donnée. Les entreprises vont devoir fournir aux autorités de contrôle un registre dans lequel sont indiqués tous les processus du traitement de la donnée, au sein de celle-ci ou chez les sous-traitants. Ce registre doit être mis à jour régulièrement, allant de la mise en œuvre de nouveaux traitements à la modification des existants. Or, les entreprises se retrouvent à présent à la tête de gros volumes de données éparpillées en interne, hébergées chez des prestataires ou dans le Cloud. Une structure les obligeant à mettre en place des outils de discovery pour aller chercher les données dispersées sur plusieurs plateformes en cas de demandes de l'autorité de contrôle.
Une vision globale de la donnée grâce à des plateformes intégrées
Exigeante en termes de traçabilité du traitement de la donnée, la nouvelle réglementation est donc un véritable casse-tête, très chronophage pour les entreprises. C'est pourquoi, les entreprises ont tout intérêt à mettre en œuvre quelques bonnes pratiques et à revoir leur architecture informatique pour gérer la donnée de façon optimale. Elles doivent notamment privilégier les interfaces transparentes de gestion de la donnée, car la RGPD valorise plus que jamais les dispositifs whitebox, permettant de suivre en temps réel le traitement suivi par la donnée. Il est également préférable de “Désiloter” le traitement de la data en favorisant le mode collaboratif. Trop souvent éparpillé dans les services, la donnée doit pouvoir être administrée de façon centrale pour fournir une vision 360°. Par ailleurs, les entreprises doivent opter pour une architecture capable d'accepter l'altérité des formats afin d'obtenir une vision globale sur le procédé de transformation et de déploiement de la data.
Enfin, il est préférable pour les collaborateurs de travailler sur une plateforme commune, supportant différents systèmes afin de ne pas les forcer vainement à utiliser les mêmes standards.
Enfin, il est préférable pour les collaborateurs de travailler sur une plateforme commune, supportant différents systèmes afin de ne pas les forcer vainement à utiliser les mêmes standards.
Big Data, IoT, Intelligence artificielle : un flux de données continu
A ce jour, les entreprises comprennent bien que le manque d'exploitation de la donnée, c'est se condamner à disparaître du marché, au profit des concurrents. L'entrée en vigueur de la GDPR se fera d'ici un an. Il est donc temps pour les entreprises, peu importe la taille de celle-ci, de mettre en place les outils d'exploitation des données en toute conformité avec la nouvelle réglementation. Sinon, les sanctions seront : jusqu'à 20 millions d'euros d'amendes pour les PME et une pénalité financière de 4% du chiffre d'affaires annuel mondial pour les grandes entreprises.
Toutes les entreprises répondant correctement aux exigences de transparence et de traçabilité de la data, pourront déployer toutes les nouvelles technologies, Big Data, IoT et IA, en toute sérénité.
Florian Douetteau est CEO et co-fondateur de Dataiku. Diplômé de l'Ecole Normale Supérieure, il débute sa carrière chez Exalead, qu'il rejoint en 2000 pour mener une thèse sur le développement du langage de programmation Exascript. Il y restera jusqu'en 2011, occupant successivement plusieurs postes de direction et de vice-président dans les domaines de la recherche, du développement et du management de produits. Après un passage chez Is Cool Entertainment en tant que Chief Technology Officer, il intègre Criteo pendant quelques temps comme Data Scientist freelance, avant de se lancer dans l'aventure Dataiku en 2013.
Toutes les entreprises répondant correctement aux exigences de transparence et de traçabilité de la data, pourront déployer toutes les nouvelles technologies, Big Data, IoT et IA, en toute sérénité.
Florian Douetteau est CEO et co-fondateur de Dataiku. Diplômé de l'Ecole Normale Supérieure, il débute sa carrière chez Exalead, qu'il rejoint en 2000 pour mener une thèse sur le développement du langage de programmation Exascript. Il y restera jusqu'en 2011, occupant successivement plusieurs postes de direction et de vice-président dans les domaines de la recherche, du développement et du management de produits. Après un passage chez Is Cool Entertainment en tant que Chief Technology Officer, il intègre Criteo pendant quelques temps comme Data Scientist freelance, avant de se lancer dans l'aventure Dataiku en 2013.
Autres articles
-
Dataiku met l’IA générative au service de la préparation des données
-
Dataiku 12 : une IA puissante et contrôlée au service des entreprises
-
Teradata et Dataiku renforcent leur intégration pour déployer l’IA à grande échelle
-
Artefact et Dataiku démocratisent l’adoption de solutions IA pour faciliter les prises de décisions des entreprises au quotidien
-
Dataiku obtient la désignation Google Cloud Ready – AlloyDB