Suite du sujet Visionneuse v4 : interface revisitée, code + évolutif :
English translation available below
C’est une première mise en valeur dans la visionneuse de la couche sémantique qu’on ajoute petit à petit à Panoramax.
Pour l’instant, seules les détections de panneaux sur les photos récentes sont remontées automatiquement lors du passage par l’API de floutage et associées aux images. On peut désormais les voir dans la visionneuse.
Ces infos sémantiques produites soit automatique (computer vision) soit manuellement peuvent être associées à:
- une séquence d’images
- une image
- une portion d’image (le cas ici avec les panneaux)
Il n’y a pas encore d’interface web pour éditer tout cela, cela va venir petit à petit, mais l’API est déjà opérationnelle !
Pour les panneaux, on ne remonte pour l’instant que les détections, la suite c’est:
- ajouter le résultat de classification, pour indiquer de quel type de panneau (et panonceau) il s’agit, cette classification n’étant pas faite lors du floutage mais après coup
- faire tout ça sur tout le stock !
Autre chose à faire: ajouter des recherches de photos sur la sémantique dans la visionneuse (l’API est en principe déjà implémentée).
This is the first highlight in the viewer of the semantic layer we’re gradually adding to Panoramax.
See the example above.
For the moment, only road sign detections on recent pictures are automatically brought up when passing through the blurring API and associated with images. They can now be viewed in the viewer.
These semantic informations, produced either automatically (computer vision) or manually, can be associated with:
- a sequence of images
- an image
- a portion of an image (as in this case with the road signs)
There’s no web interface yet for editing all this - that will come gradually, but the API is already up and running!
For the panels, we’re only uploading the detections for the time being, the next steps are :
- add the classification result, to indicate which type of panel (and sign) it is, this classification not being done at the time of blurring, but afterwards
- do all this on all the stock !
Another thing to do: add photo searches based on semantics in the viewer (the API is, in principle, already implemented).