Suivi robuste de cibles carrées pour la réalité augmentée
Un article de Wiki-evr@.
Sommaire |
Sujet
Introduction
Le suivi d’objets (ou tracking) constitue l’un des axes essentiels de recherche dans le domaine de la vision par ordinateur. C’est un problème difficile qui occupe une place importante dans des tâches comme la mesure du mouvement ou l’asservissement visuel et qu’on rencontre dans différentes applications telles que l’imagerie médicale, l’analyse du trafic routier ou la réalité augmentée.
Motivation
Plusieurs méthodes de suivi ont été développées dans le passé, cependant, le résultat de tracking n’est pas toujours probant dans des conditions peu favorables de l’environnement, comme la présence de bruit important, l’occultation de certaines parties de l’objet ou la variation rapide de la luminosité. Pour pallier à ces problèmes, on propose d’utiliser un algorithme robuste de mise en correspondance des points caractéristiques de l’objet cible dans une séquence d’images.
Objectif
L’objectif principal de l’étude est donc d’implémenter une méthode statistique robuste de suivi d’objet dans un flux vidéo. Au départ, la reconnaissance d’objet d’intérêt est élaborée en employant des cibles codées. Ensuite, on utilisera l’algorithme de RANSAC pour la mise en correspondance des points de l’objet dans les trames de la séquence d’images. La robustesse de l’algorithme sera testée en considérant une variété d’erreurs et de contraintes, parmi lesquelles le bruit dans l’extraction des indices visuels, la tolérance aux rotations de l’objet, les variations d’éclairage et la gestion des occultations. Enfin, on testera les résultats en temps réel en utilisant l’environnement naturel de l’utilisateur avec une seule source d’information qui est un flot d’images provenant d’une caméra CCD.
Durée du stage / type de candidat ciblé
- 3 mois maximum
- IIE 1ère ou 2ème année
Compétences requises
- Connaissances en vision par ordinateur,
- Programmation C/C++
Moyens techniques
- PC standard
- Carte d'acquisition Meteor II
- Caméra
Contact principal
- Madjid Maidi (maidi@iup.univ-evry.fr)