Floutage panoramax... annotation collaborative?

On a aussi un paquet de photos de toute la région parisienne, mais je sais pas si @StephaneP a encore la version non floutée.

C’était un des effets du paramètre “dezoom” du script qu’on a utilisé. C’est pour cette raison que je ne l’avais pas utilisé… au dépend du temps de calcul.

Normalement non, mais j’en ai d’autres. Il faut que je prenne un peu de temps pour faire une sélection variées afin de les fournir à Christian, et alimenter le modèle.

1 « J'aime »

Une nouvelle série de photo à annoter cette fois ci à 360°:

https://label-studio.cquest.org/projects/6/data?tab=10

N’hésitez pas à zoomer, surtout si vous êtes sur un petit écran !

L’objectif est d’améliorer la détection sur les photos à 360° car les plaques et visages n’y sont pas aussi bien détectés avec le modèle actuel entraîné sur des photos “plates”.

Sur le set de photos 360 haute def que je prépare, il y a parfois tellement d’éléments à annoter, que je me demande si ce ne serait pas bien de couper les photos en 3 ou 4 parties. Ce serait moins “fatiguant” et éviterait de jouer du zoom/dezoom à chaque instant.

Sinon, je me demande comment seront gérés les éléments à flouter qui sont à cheval sur 2 extrémités de la photo.

1 « J'aime »

Tu as déjà regardé le set de Christian?
Tu crois que ce serait possible de decouper les photos? Ce serait plus facile pour les contributeurs, mais est-ce que ce ne serait pas galère au niveau traitement et refusion de la photo?

Franchement aucune idée mais ça vaut le coup de creuser car même sur mon (très) grand écran c’est pas évident !

C’est surtout que lorsqu’il y a énormément d’objets à détourer, le zoome dezoome est pénible et qu’il faut absolument que toute la photo soit traitée.

Si l’IA n’a pas besoin du contexte de l’image, mais uniquement de l’annotation, alors découper l’image au préalable ne devrait rien changer. Je n’ai pas la réponse à ça.

Non, mon lien pour accéder à l’annotation n’a jamais fonctionné. Mais ce n’est pas grave, j’ai déjà largement de quoi m’occuper : Je viens de passer quelques heures depuis hier à faire une sélection de photo parmi mon stock pour les donner à traiter à ceux qui annotent. Avec les 4 caméras sur la voiture, ça donne des angles de vue variés.

Disons que tes photos même si elles ont des angles variés seront de bonne qualité voire plus. C’est pas amha là dessus quil faut concentrer nos efforts, non? Ou je me trompe et tu as aussi des photos pourries?
Je pensais egalement aux photos sous la pluie, je me demande ce que ca donne.

Il faut surtout de la variété. Dans les sets de photos que je viens de transmettre à Christian, il y a :

  • Des plaques d’immatriculation ancien modèle des départements 44, 49, 85.
  • Quelques plaques d’immat de véhicules étrangers
  • Quelques plaques d’immat de véhicules anciens (les petits convois du dimanche, c’est pratique)
  • Des photos de tous types prise au mois de janvier, sombres, et donc avec peu de contraste et un peu de flou
  • Des plaques ou visages avec contre jour, des reflets, des ombres

Dans mon stock de photo j’ai aussi des photos avec de la pluie, je pense à cette journée. Mais bon, si les photos sont trop mauvaises, alors il n’y a plus grand chose à flouter.

D’ailleurs, en parlant de plaques étrangères, j’ai des photos faites en Irlande. Si on veut en utiliser une partie pour l’apprentissage, @cquest, elles sont dans le takeout Mapillary (photos du 16 au 23 mai 2015). Je ne les ai pas en local pour faire un tri préalable.

Les photos 360 à annoter pour améliorer le floutage en 360 ont toutes été annotées… je vais donc relancer un entraînement :slight_smile:

2 « J'aime »

Petit résumé de la visio faite hier avec Nicolas Audebert, chercheur en “computer vision” et “machine learning”, @cquest et moi-même :

  • Christian est sur la bonne voie :+1:
  • L’annotation de photos 360° reste recommandée
  • Oui, le contexte d’une photo est utilisé pour l’entrainement. Par forcément la photo complète, mais au moins une zone autour de l’élément à détecter.
  • Conséquence du point suivant : Il faut des photos avec des paysages variés.
  • Il faudrait créer un “jeu de validation”. Il s’agit d’un ensemble de photos variées, représentatives, stable dans le temps, qui servira à obtenir des métriques (Intersection sur Union) sur les évolutions des modèles d’IA et vérifier qu’il s’améliore.

ça je m’en doutais au moins pour la détection des visages… le corps des personnes en dessous est clairement pris en compte. Je pense que c’est pour ça que les visages de personnes dans les véhicules sont moins bien détectés.

Le point important ici est: STABLE

Cette stabilité permet de voir si chaque nouvel entraînement est mieux ou moins bien que le prédécent car arrivé à un certain niveau on a du mal à faire la différente et une mesure précise et stable devient nécessaire.

Dans les entrainements faits, il y a bien un jeu de validation qui est généré, mais il est constitué au moment de l’export depuis label-studio et donc varie à chaque export.
Il faut aussi être absolument sûr de la qualité de ce jeu de validation.

Pour les volontaires, il y a quelques dizaines de nouvelles photos 180° à annoter: Label Studio

1 « J'aime »

Et puis vous pouvez aider à la détection des panonceaux…

https://label-studio.cquest.org/projects/9/data

Regardez ce qui est déjà fait pour vous inspirer puis bouton “Label all tasks” !

Il faut utiliser les identifiants des geocommuns ? Sinon comment avoir un compte ?

C’est sur invitation (envoyée en MP)… car photos non anonymisées bien sûr !!

Là, tout est fait… il va falloir remettre des images à annoter