"Google Earth" français

Bonjour,

J’aimerais savoir si certains savent à quel point l’IGN est loin de pouvoir sortir un “Google Earth” français et libre.

Ce qui m’intéresse dans leur produit, c’est non pas les photos satellites plates verticales, mais la 3D qui permet de voir des perspectives différentes sur les bâtiments numérisés en relief.

C’est un outil incroyablement utile. À titre d’exemple, pour le bâtiment : voir les formes, l’exposition, la taille estimée des combles d’un immeuble, etc.

Si je ne me trompe pas, la couverture LIDAR faite par l’IGN est déjà énorme en France. Il resterait donc à texturer cette vue 3D pour qu’elle soit compréhensible par l’œil humain. Est-ce possible à partir d’images satellites, sans quadriller la France avec des avions équipés d’appareils photos ultra-HD ? Je suppose que non, mais vu la faible qualité des textures des zones en dévers des bâtiments sur Google Earth, je me demande quand même (GIF ci-dessous).

Recording 2025-03-21 at 12.38.53

Est-ce que l’IGN est sur le coup ?

Merci !

1 Like

On voit ici que le passage d’avion est nécessaire d’après l’équipe de Earth.

(vidéo qui a 7 ans)

Pierre Beyssac avait fait un POC en utilisant les données Lidar et l’imagerie aérienne :

3 Likes

Merci ! Et ça m’a permis de retrouver cette démo très intéressante qui marche dans le navigateur.

Bon, on est encore loin de Google Earth. Mais il semble que le problème vienne donc du manque de traitement logiciel derrière, pas du manque de données de base, car l’IGN a bien une base d’ortho-photographies. BD ORTHO® - data.gouv.fr

Il manque tout de même des vues du sol, ou des vues aériennes obliques.

En rêvant un peu, on pourrait combiner orthophotos, vues obliques, et photos panoramax :wink:

1 Like

Bonjour à tous, j’ai même essayé il y a 1 ou 2 ans à partir d’extractions de points Lidar (faites avec un script pdal) de générer des facettes sur des bâtiments et leurs environs (soit avec pdal, soit avec CloudCompare si j’ai bonne mémoire), pour importation potentielle ensuite dans Blender, les résultats étaient peu concluants. Mais je n’ai guère insisté, quelqu’un de plus doué pouvait sûrement faire mieux.

Du coup comme je suis en train de trier des fichiers Lidar, j’ai retrouvé ceci, visualisé dans Blender après importation au format .ply.

Ce sont des extractions de la gare de Riom - Châtelguyon (Puy de Dôme) sur base du fichier IGN.

Facettage généré par PDAL.
(image supprimée car Discourse me dit que je suis limité à 1 image)

Facettage généré par CloudCompare avec les options par défaut
(image supprimée car Discourse me dit que je suis limité à 1 image)

Meilleur résultat (à mon sens), facettage généré par CloudCompare avec réglage “1 mètre”. On voit qu’il a quand même du mal avec les surfaces verticales.

Mon objectif était de m’en servir de base de travail pour faire des modélisations 3D de bâtiments, mais repartir du nuage de points et se baser sur les points singuliers (angles, etc) est peut-être plus simple pour un concepteur habitué à Blender que de retravailler le facettage automatique.

Si ça intéresse quelqu’un de jouer avec ça, je peux mettre à disposition les différents fichiers .ply:

  • nuage de points brut avant traitement
  • facettage PDAL
  • facettages CloudCompare
1 Like

Le facettage calculé par PDAL.

Et hop une petite promotion et tu n’es plus limité !


Je doute que l’IGN prenne beaucoup plus que ce qui est nécessaire pour produire l’ortho, donc il y a un peu d’oblique dû au recouvrement, mais sûrement pas assez pour aller très loin car sur l’ortho on cherche à limiter les dévers.

Je pense que la densité du Lidar aérien sera trop faible, sauf comme le suggère @StephaneP en combinant un peu tout ensemble… mais gros gros challenge !

2 Likes

Merci Christian pour le coup de pouce !

Oui je me demandais surtout si c’était possible d’affiner les réglages des algorithmes de facettage pour qu’ils soient capables de mettre des murs là où il en faut, donc avec moins de points en échantillonnage en vertical. Peut-être en les rendant anisotropiques en quelque sorte, pour parler en jargon GPU :slight_smile:

Que pensez-vous de ce genre de travaux ?

Recording 2025-03-28 at 12.16.14

ça se teste… mais ça doit pas être très frugal… mais la photogrammétrie n’est pas très frugale en général, donc ça peut être utile.

Test avec la démo en ligne:

Assez impressionnant ce qu’on obtient avec une seule image.

C’est une piste à creuser et l’inférence a l’air assez rapide. C’est pas quelque chose que j’appliquerai systématiquement, mais pour localiser des objets utiles détectés (je pense en premier aux panneaux), on pourrait potentiellement les localiser dans l’espace.

1 Like

Par contre, l’algo ne comprend pas du tout les photos 360° équirectangulaire

Oui, ça c’est clair. J’ai commencé à lire la publication scientifique, rien vu concernant le 360°, c’est clairement sur des images classique que ça a été mis au point. Même pas sûr que ça fonctionne sur des images de type grand angle (>120°).

Je pense que sur un extrait d’image 360 reprojeté ça doit donner des résultats plus cohérents.

1 Like

J’ai essayé avec des photos provenant de Gopro Hero. Le résultat n’était pas exceptionnel.

Capture avec 3 photos latérales. Les petits pixels rouge en bas au centre, sont une borne incendie

1 Like

La cathédrale de Nantes avec une base de 3 photos.

Recording 2025-03-31 at 21.49.12

1 Like

Une tour du chateau de Nantes à partir de 4 images prises depuis les douves.
(je prends des captures de ce que montre le visualiseur Panoramax, pas les photos sources 360)

Je dois dire que celui-ci me bluffe.

Recording 2025-03-31 at 21.52.59

2 Likes