Le Big Data est un phénomène dont nous commençons tout juste à comprendre l’ampleur. Il va révolutionner notre vie, dans de nombreux domaines, même les plus inattendus. Pour exemple : la gestion des villes.
Extraits :
Face à l’urbanisation galopante de la planète, la raréfaction des ressources naturelles et la montée du coût de l’énergie, l’homme doit construire des villes plus efficaces, optimiser leur design. Un défi qui passe par le numérique et tout particulièrement par le Big Data. […]
Que ce soit Shanghai, Sao Paulo, ou… Paris, toutes les mégalopoles connaissent les mêmes problèmes : circulation automobile erratique, transports en commun engorgés, pollution permanente des centres villes, et pour certaines, réseaux électriques et des eaux défaillants. A part peut-être en Chine ou en Inde, difficile de faire aujourd’hui ce qu’avait réalisé le Baron Haussmann à Paris au XIXe siècle, démolir nos villes pour les réaménager de fond en comble. On ne peut agir que progressivement, et là où c’est le plus efficace. C’est ici que le numérique entre en jeu. […]
L’internet des objets va générer la matière première de la Smartcity : la donnée
EDF R&D a testé une architecture Hadoop pour consolider puis analyser les données que généreront les 35 millions de compteurs intelligents Linky.
L’exemple le plus emblématique de cette approche, sans nul doute le compteur électrique Linky d’ERDF. 35 millions de compteurs intelligents doivent être déployés en France d’ici 2020. Ces compteurs, plus communicants que réellement intelligents, vont transmettre, via courant porteur en ligne, des données de consommation à ERDF qui, en stockant cette donnée dans le temps va pouvoir optimiser la production électrique en faisant tourner des algorithmes prédictifs. Une donnée d’autant plus précieuse que, côté production, la montée en puissance des sources d’énergies renouvelables (type solaire ou éolienne) introduit une grande complexité de gestion. Le problème d’une telle approche est évident : 35 millions de compteurs qui envoient une mesure toutes les 10 minutes, c’est 1800 milliards d’enregistrements à stocker chaque année, soit 120 To de données brutes. […]
Des algorithmes pour optimiser la circulation automobile
Le trafic routier de la ville de Rio de Janeiro lors de la prochaine coupe de monde de Football puis les Jeux Olympique de 2016 sera piloté par les algorithmes prédictifs d’IBM. L’engorgement des centres villes et des grandes artères est un souci de pratiquement toutes les mégalopoles au monde. Rio de Janeiro, qui se prépare à accueillir la prochaine coupe du monde de Football mais aussi les Jeux Olympiques, a fait appel à IBM pour calculer de nouveaux plans de circulation de secours pendant cette période. […]
Des sources de données parfois inattendues […]
D’autres vont aller chercher l’information là où les habitants s’expriment, c’est-à-dire sur les médias sociaux. Certaines villes commencent à analyser les tweets, les interventions sur Facebook et les billets de blogs pour savoir ce que pensent leurs habitants de telle ou telle infrastructure publique. Avec son offre IBM Social Media Analytics, l’américain a exploité sa technologie d’analyse des sentiments sur les médias sociaux en Inde où elle a pu montrer que les transports collectifs de Mumbai, pourtant légendaires, suscitent deux fois moins de commentaires négatifs que ceux de Bangalore et de New Delhi.
Le Big Data pour une ville plus sûre
Ce mouvement vers les données volumineuses a été engagé par de nombreuses villes pour améliorer la sécurité dans les rues, à l’image de Vancouver qui, exploite le système Consolidated Records Intelligence Mining Environment (CRIME). Ce logiciel, qui associe la plateforme géographique ESRI et les données consolidées par IBM, a pu analyser les crimes & délits passés pour définir les lieux à surveiller en priorité. Un groupe de chercheurs de l’UCLA, mené par le professeur Jeff Brantingham est allé plus loin en analysant 13 millions de crimes. Avec l’aide du mathématicien George Mohler de l’université de Santa Clara, ils ont appliqué sur ce corpus crapuleux les algorithmes prédictifs dérivés de ceux annonçant les répliques d’un tremblement de terre. Le logiciel, exploité par la police de Los Angeles, est maintenant capable de définir une zone de quelques centaines de m2 où un crime devrait se produire dans les 12 heures. […]
Pour en savoir plus :
> l’article de decideo
Cet article Le Big Data au coeur des métropoles de demain est apparu en premier sur Evea-group.