FYI.

This story is over 5 years old.

Tech

Un algorithme vous explique pourquoi Paris ne ressemble à aucune autre ville

Non, ce n'est pas juste à cause de la Tour Eiffel.

Ok, vous pouvez certainement reconnaître certaines villes juste en les regardant. Mais comment former une machine à les reconnaître encore mieux que les humains ?

C'est ce qu'ont essayé de faire des chercheurs, qui publient un article intitulé « Qu'est-ce qui fait que Paris ressemble à Paris ? » dans le numéro de décembre de la revue Communications of the ACM.

Les chercheurs ont présenté à 11 cobayes humains 100 photos prises au hasard sur Google Street View, dont la moitié avaient été prises à et l'autre moitié dans d'autres villes, pour voir s'ils reconnaissaient bien la ville. Même lorsqu'il s'agissait d'images très peu spécifiques, les cobayes voyaient juste dans 79% des cas. Mais la vraie question, c'était : comment faire en sorte que des machines soient capables de reconnaître le style particulier de Paris ?

Publicité

Pour y parvenir, les chercheurs ont développé un programme qui a recueilli des milliers de photos issues de Google Street View et les a analysées. Si certaines auraient pu être prises n'importe où (photos d'arbres, de fenêtres…), d'autres, où figuraient des éléments urbains plus spécifiques comme des panneaux de direction, des grilles, ou des balcons d'un style particulier ont permis d'affiner les résultats. Le programme s'est donc concentré sur ces éléments, et a ignoré le reste.

Image: Doersch et al.

À quoi cela peut-il bien servir ? Selon les auteurs de l'article, on pourrait s'en servir pour recréer le décor de certaines villes sans avoir besoin d'envoyer des gens un peu partout dans le monde pour faire des repérages. Imaginez par exemple une série comme Sense8, dont l'action se déroule dans plusieurs villes à travers le globe ; un ordinateur pourrait tout à fait générer un décor "façon Paris" qui éviterait aux producteurs de déployer de multiples équipes de tournage sur plusieurs continents.

Mais le programme a connu quelques problèmes durant les essais. S'il est parvenu à identifier les aspects les plus distinctifs d'une ville comme Paris, il a eu beaucoup plus de mal avec les villes américaines. Ça n'est pas très étonnant dans une ville comme New York, où les bâtiments ont tendance à s'inspirer d'une multitude de styles architecturaux sans véritable cohérence globale. Du coup, le programme s'est davantage intéressé à des choses plus triviales telles que les voitures ou les tunnels pour distinguer les villes.

Un ordinateur peut-il vraiment devenir capable de reconnaître une ville mieux que des humains ? C'est difficile à dire, mais une chose est sûre : les humains ont sans doute au moins autant de mal à reconnaître les villes américaines, qui se ressemblent toutes à l'exception de quelques monuments, que les machines.