Modèles de villes numériques CityGML pour la transition énergétique

Les modèles numériques 3D de ville permettent d’échanger, de visualiser et d’analyser les données spatio-sémantiques urbaines, de l’échelle du matériau à celui du territoire. Multidomaines, ils sont utilisés pour des applications diverses  : modélisation des nuisances acoustiques, simulation d’inondations, études comportementales et sociodémographiques, épidémiologie énergétique…
Là où les « Building Information Models » (BIM) s’arrêtent au bout du jardin, les modèles numériques 3D de ville permettent de prendre en compte les phénomènes d’interactions urbaines, tels que les îlots de chaleur urbains ou encore la mutualisation des demandes et productions énergétiques des bâtiments.

Diagnostic des besoins de chaleur et identification des priorités de rénovation de 3D.

Diagnostic des besoins de chaleur et identification des priorités de rénovation de 3D.

Les urbanistes, les municipalités et les fournisseurs d’énergie disposent ainsi d’informations pour décider et coordonner les meilleures stratégies, combinant faibles émissions CO2 et investissements rentables.
Instruments de diagnostic complet, ces modèles permettent d’identifier les priorités de rénovation bâtiment par bâtiment et de prédire leur potentiel d’économies d’énergie. Des stratégies énergétiques – plan Climat-énergie territorial – peuvent être ainsi planifiées à l’échelle de la ville, combinant une réduction de la demande énergétique et l’utilisation optimale du potentiel d’énergies renouvelables.

Un des principaux challenges de ces modèles numériques de ville est la collection et le partage des données. La disponibilité et la qualité de ces données impactent directement la fiabilité de l’analyse énergétique. Alors que les géométries 3D urbaines peuvent être générées automatiquement et précisément à l’aide de technologies laser ou photogrammétrique, la collection d’informations sémantiques liées aux bâtiments et à leurs utilisations est plus complexe et laborieuse. Elle demande de croiser de nombreuses sources d’information et d’utiliser des méthodes d’acquisition de données plus ou moins automatiques.
Il est primordial d’avoir un modèle de ville numérique unique, ouvert, multidomaine et multi «  niveau de détail », qui puisse servir de plateforme d’échange de données entre les différents acteurs urbains.
Le standard CityGML répond à ces critères. C’est une référence internationale, déjà utilisé pour modéliser des agglomérations en France (Lyon, Rennes) et en Europe (Londres, Stuttgart).

Traitement et harmonisation des données : la bonne recette

Une analyse spatiale urbaine est une longue chaine de traitement de l’information, partant de de la collection des données (sur le terrain, import de bases de données, crowd-sourcing…) à la visualisation des résultats intégré dans un modèle virtuel de villeL’information perdue ne pouvant se recréer, la qualité des résultats est limitée par le maillon le plus faible de cette chaîne. S’il est un maillon particulièrement critique, c’est bien le traitement et l’harmonisation des données, qui suit la phase de collection des données.
Mon ami Piergiorgio de Trento aime à comparer cette étape à une recette de cuisine. Je me permets de lui emprunter cette savoureuse analogie.

Extrait de la recette “Tarte aux poireaux” (source: www.meilleurduchef.com)

Une recette de cuisine liste les ingrédients nécessaires, précisant la quantité et l’unité de mesures. Ces ingrédients doivent être préparé d’une manière particulière avant d’être intégré les uns aux autres. Les poireaux achetés sur le marché doivent être coupés en quatre dans la longueur, puis lavés, puis coupés en troncon de 2cm de long avant d’être mis dans une casserole adaptée pour réaliser une tarte aux poireaux. De même, les données brutes collectées doivent être rendus utilisables dans l’analyse urbaine, transformées et éventuellement corrigées pour correspondre au format attendu. L’utilisation de code-lists spécifiant les valeurs acceptables des paramètres textuels (fonction du bâtiment, type de propriétaire…) participe ainsi pleinement à l’harmonisation de données. Pour les paramètres numériques, une uncertaintude maitrisée est primordiale à la qualité des données.
Des éléments pré-préparés (kub Maggy) permettent de remplacer les ingrédients frais manquants à moindre frais. Exactement comme les librairies de données, rassemblant des données de benchmarking qui seront utilisés par défault si l’étape de collection de données n’a pas permis de fournir pleinement les données requises pour l’analyse urbaine.
En plus des ingrédients nécessaires, des ingrédients additifs peuvent relever la saveur du plat (épices, copeaux de truffes!), tout comme les données optionelles, qui bien intégrés au traitement de données vont améliorer la précision et le réalisme des résultats.
Enfin, sans ustensiles de cuisine adaptés à la quantité et à la nature des ingrédients, point de salut. Les outils de traitement de données sont de même essentiels. Qu’ils soient commerciaux (FME) ou freeware/opensource (HALE), il y en a pour tous les goûts, pour toutes les bourses, plus ou moins robustes et aiguisés. Aussi faut-il savoir s’en servir: le cuisiner comme l’expert en traitement de données doit avoir l’expérience nécessaire, afin que rien ne soit laisser à l’improvisation.

Open data, open mind: l’exemple d’Helsinki

Depuis 2011, la ville de Helsinki  a conduit une offensive tous azimuts en matière de transparence et d’open data, ouvrant plus de 1000 sets de données au public. Elle s’est alliée pour cela aux 3 municipalités voisines Espoo, Vantaa et Kauniainen, afin de rassembler un panel de données donnant une entière impression de cette métropole de 1.5 million d’habitants (l’équivalent de la métropole de Lyon).

Foto: Jens Passoth – Magazine Brandeins

Parmis les données mises en libre accès par la ville, on retrouve  l’état du traffic et des transports urbain en temps réel ainsi que les mesures météorologiques et de pollutions sonores, les consommations énergétiques des bâtiments publics, des données socio-démographiques sur la population ou comment est dépensé l’argent de la ville. Il est même possible de suivre l’activité des déneigeuses en temps réel et savoir si elles sont passé aujourd’hui devant le pas de notre porte.

En charge de la gestion et publication de ces données pour les 4 municipalités partenaires, l’agence Helsinki Region Infoshare a dévéloppé des API standardisées pour faciliter l’utilisation de ces open data. De plus, elle ouvre ses bureaux toutes les 2 semaines aux intéressés pour présenter les nouveaux sets de données disponibles, discuter avec les utilisateurs et écouter leurs demandes. De son côté, la ville d’Helsinki encourage avec ferveur la communautés des développeurs d’applications mobiles, chercheurs et journalistes à exploiter ses données, détaillant où trouver quelles données sous quel format, via son portail Dev.hel.fi. Elle soutient de plus les bonnes initiatives et donne à l’occasion un coup de pouce. La ville a ainsi investi plus de 100.000€ en 2013 et 2014 pour réaliser un modèle numérique 3D de la ville en format CityGML (open standard), maintenant librement téléchargeable.

Mais pourquoi tant d’efforts à vouloir absolument partager ses données, alors que celles-ci se monnayent au même moment à prix d’or au coeur de la Silicon Valley.

“Ouvrir ses données au public peut faire économiser de l’argent à une commune, par exemple en affichant de façon transparente ses coûts ou en laissant les autres visualiser et analyser ses dépenses” raconte Tanja Lahti, directrice de Helsinki Region Infoshare. Ce partage de données et de savoir est aussi une mine d’or pour les sociétés IT locales, qui développent des applications mobiles liées aux bases de données de la ville. Ilkka Pirttimaa a ainsi développé  l’app BlindSquare pour aider les aveugles et mal-voyants dans leur vie quotidienne. Cette app indique le chemin vers le prochain arrêt de tram, communicant l’heure du prochain tram, si celui-ci est en retard et de combien de minutes. L’app connait aussi  les bibliothèques qui proposent des livres en braille, et orientera son utilisateur au fil des étages (le plan intérieur ayant été digitalisé par la ville) pour trouver le bon livre au bon rayon, ou éventuellement aller aux toilettes les plus proches entre deux chapitres.  Les aveugles d’Helsinki sont devenus avec cette app beaucoup plus indépendants, certains même guident leur labrador!

L’open data booste aussi  la démocratie participative, les citoyens étant à tour de rôle  consommateurs et contributeurs volontaires de cet échange de données. Ils peuvent ainsi facilement notifier à la mairie un matériel défectueux ou une dégradation dans leur rue, prenant une photo avec leur smart phone et la postant sur l’app Fix-my-street accompagnée d’un court commentaire. Généralement, les agents de la mairie interviendront dans les jours qui suivent.

Cette ouverture des données représente un changement culturel important. Elle est à l’heure actuelle dans beaucoup d’autres pays impossible. Cependant, il ne faut pas croire que la Finlande est un état laxiste en terme de protection des donnée ou respect de la sphère privé, au contraire: Toutes les données publiées doivent avoir été anonymisées. De plus, toute personne manipulant ces données a reçu une formation de droit de la personne et droit d’auteur. Peut-être est-ce aussi une question d’ouverture d’esprit…

Plus d’infos: