Actualités : analyse de données, Business Intelligence, Data Science, Big Data


Villes intelligentes : le Big Data va modeler les villes de demain


Rédigé par le 16 Septembre 2013

Face à l’urbanisation galopante de la planète, la raréfaction des ressources naturelles et la montée du coût de l’énergie, l’homme doit construire des villes plus efficaces, optimiser leur design. Un défi qui passe par le numérique et tout particulièrement par le Big Data.



Songdo, ville nouvelle à quelques dizaines de km de Seoul sera, lorsqu’elle sera achevée en 2015, la première Smart City sortie de terre dans une approche 100% Big Data.
Songdo, ville nouvelle à quelques dizaines de km de Seoul sera, lorsqu’elle sera achevée en 2015, la première Smart City sortie de terre dans une approche 100% Big Data.
Que ce soit Shanghai, Sao Paulo, ou… Paris, toutes les mégalopoles connaissent les mêmes problèmes : circulation automobile erratique, transports en commun engorgés, pollution permanente des centres villes, et pour certaines, réseaux électriques et des eaux défaillants. A part peut-être en Chine ou en Inde, difficile de faire aujourd’hui ce qu’avait réalisé le Baron Haussmann à Paris au XIXe siècle, démolir nos villes pour les réaménager de fond en comble. On ne peut agir que progressivement, et là où c’est le plus efficace. C’est ici que le numérique entre en jeu. Tout comme une entreprise doit songer à collecter ses données de production, ses données commerciales dans son entrepôt de données avant de mettre en place ses indicateurs de performance et songer à améliorer sa performance opérationnelle, les villes doivent capter en temps réel leurs données sur la circulation, la consommation électrique de chacun, la consommation en eau pour enfin évaluer les points d’amélioration où investir en priorité.

L’internet des objets va générer la matière première de la Smartcity : la donnée

EDF R&D a testé une architecture Hadoop pour consolider puis analyser les données que généreront les 35 millions de compteurs intelligents Linky.
EDF R&D a testé une architecture Hadoop pour consolider puis analyser les données que généreront les 35 millions de compteurs intelligents Linky.
L’exemple le plus emblématique de cette approche, sans nul doute le compteur électrique Linky d’ERDF. 35 millions de compteurs intelligents doivent être déployés en France d’ici 2020. Ces compteurs, plus communicants que réellement intelligents, vont transmettre, via courant porteur en ligne, des données de consommation à ERDF qui, en stockant cette donnée dans le temps va pouvoir optimiser la production électrique en faisant tourner des algorithmes prédictifs. Une donnée d’autant plus précieuse que, côté production, la montée en puissance des sources d’énergies renouvelables (type solaire ou éolienne) introduit une grande complexité de gestion. Le problème d’une telle approche est évident : 35 millions de compteurs qui envoient une mesure toutes les 10 minutes, c’est 1800 milliards d’enregistrements à stocker chaque année, soit 120 To de données brutes. Face à ce déluge à venir, EDF R&D a lancé le projet Sigma pour évaluer l’architecture technique qui allait à la fois stocker ces données et permettre leur analyse prédictive : Marie-Luce Picard, chef de projet chez EDF R&D en souligne les enjeux « Il nous faut bâtir un data warehouse opérationnel avec, à la fois un très large volume de données qui l’alimente plusieurs fois par jour, mais aussi être capable de traiter un très grand nombre de requêtes tactiques, prédéfinie et aussi des requêtes non prévues ». Dans une « preuve de concept » menée sur une grappe de 36 nœuds, EDF R&D a validé qu’une architecture Hadoop allait pouvoir tenir la charge : des analyses de données stockées sur Hive délivrait des résultats dans les délais imposés par le contrat de service.

Tableau de bord délivré par l’application Vizelia, aujourd’hui Schneider Electrique, à partir des données de consommations collectées en M2M
Tableau de bord délivré par l’application Vizelia, aujourd’hui Schneider Electrique, à partir des données de consommations collectées en M2M
Ce qu’EDF veut faire au niveau national, des entreprises, des collectivités le font à leur niveau. Une startup comme Vizelia, rachetée par Schneider Electrique en 2010 équipe les entreprises de capteurs de température, de consommation énergétique et de consommation d’eau et stocke sur sa plateforme afin de délivrer via le web des tableaux de bord de consommation. Les données peuvent être corrélées avec celles de la météo locale, et un algorithme détermine l’empreinte CO2 du bâtiment.

Des algorithmes pour optimiser la circulation automobile

Le trafic routier de la ville de Rio de Janeiro lors de la prochaine coupe de monde de Football puis les Jeux Olympique de 2016 sera piloté par les algorithmes prédictifs d’IBM.
Le trafic routier de la ville de Rio de Janeiro lors de la prochaine coupe de monde de Football puis les Jeux Olympique de 2016 sera piloté par les algorithmes prédictifs d’IBM.
L’engorgement des centres villes et des grandes artères est un souci de pratiquement toutes les mégalopoles au monde. Rio de Janeiro, qui se prépare à accueillir la prochaine coupe du monde de Football mais aussi les Jeux Olympiques, a fait appel à IBM pour calculer de nouveaux plans de circulation de secours pendant cette période. Non seulement la cité brésilienne, qui compte près de 12 millions d’habitants, est l’objet d’une congestion automobile chronique, mais son réseau routier est fréquemment victime d’inondations et de glissements de terrain. Pour la ville, IBM a développé un système de gestion de la voirie pour améliorer la gestion des travaux dans la cité, a mis en place un système de gestion du trafic routier s’appuyant notamment sur le réseau des caméras de la ville et donc un volet prédictif pour déployer les moyens d’intervention d’urgence et redéployer le trafic en cas d’incident sur le réseau routier. Un système qui risque d’être très sollicité pour les JO de Rio 2016.

Des sources de données parfois inattendues

Si un gestionnaire d’infrastructure tel que Cofely Ineo fait converger vers sa plateforme OPENcontrol les données générées par ses applications et capteurs, les données issues de la ville ou encore les données mises à disposition des citoyens dans le cadre des initiatives Open Data ; certains s’appuient sur des sources de données parfois inattendues. Ainsi, Orange commercialise les informations de position de ses 27 millions d’abonnés mobile en France, des données anonymisées, bien évidemment, mais précises : « On a fait un effort conséquent, en plaçant des sondes dans notre réseau à plusieurs niveaux pour être capables d’extraire des trajectoires, où vont les gens, des types d’activités » explique Roland Airiau, directeur de recherche chez Orange Labs, « des informations tout à fait intéressantes pour les collectivités locales, le géomarketing ».

D’autres vont aller chercher l’information là où les habitants s’expriment, c’est-à-dire sur les médias sociaux. Certaines villes commencent à analyser les tweets, les interventions sur Facebook et les billets de blogs pour savoir ce que pensent leurs habitants de telle ou telle infrastructure publique. Avec son offre IBM Social Media Analytics, l’américain a exploité sa technologie d’analyse des sentiments sur les médias sociaux en Inde où elle a pu montrer que les transports collectifs de Mumbai, pourtant légendaires, suscitent deux fois moins de commentaires négatifs que ceux de Bangalore et de New Delhi.

Le Big Data pour une ville plus sûre

Le logiciel Predpol indique les zones à surveiller d’après l’analyse de l’historique des crimes dans la ville.
Le logiciel Predpol indique les zones à surveiller d’après l’analyse de l’historique des crimes dans la ville.
Ce mouvement vers les données volumineuses a été engagé par de nombreuses villes pour améliorer la sécurité dans les rues, à l’image de Vancouver qui, exploite le système Consolidated Records Intelligence Mining Environment (CRIME). Ce logiciel, qui associe la plateforme géographique ESRI et les données consolidées par IBM, a pu analyser les crimes & délits passés pour définir les lieux à surveiller en priorité. Un groupe de chercheurs de l’UCLA, mené par le professeur Jeff Brantingham est allé plus loin en analysant 13 millions de crimes. Avec l’aide du mathématicien George Mohler de l’université de Santa Clara, ils ont appliqué sur ce corpus crapuleux les algorithmes prédictifs dérivés de ceux annonçant les répliques d’un tremblement de terre. Le logiciel, exploité par la police de Los Angeles, est maintenant capable de définir une zone de quelques centaines de m2 où un crime devrait se produire dans les 12 heures.

Cette technologie, qui n’est pas sans rappeler la police du pré-crime de Minority Report, ne doit rien à la science fiction et a aujourd’hui quitté le monde de la recherche purement universitaire. La solution, baptisée Predpol, est bel et bien commercialisée et peut se targuer de résultats significatifs sur le terrain, preuve, s’il en faut encore, que le Big Data impacte déjà nos villes.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store