La Plate-Forme technologique Evr@

Un article de Wiki-evr@.

(Différences entre les versions)
Version du 2 mars 2006 à 14:56 (modifier)
Gi (Discuter | Contributions)
(Galerie)
← Différence précédente
Version actuelle (28 février 2017 à 20:23) (modifier) (défaire)
Davesne (Discuter | Contributions)
(Contexte et objectifs scientifiques)
 
(34 révisions intermédiaires masquées)
Ligne 1 : Ligne 1 :
{{en2|The Evr@ technological platform}} {{en2|The Evr@ technological platform}}
-[[Image:Evra_big.jpg|thumb|right|300px|Téléopération du robot ARITI]]+[[Image:Affiche_evr@.JPG]]
-'''Evr@''' (Environnements Virtuels et de Réalité Augmentée ) est une plate-forme technologique du Laboratoire Systèmes Complexes ([http://lsc.univ-evry.fr LSC]). La plate-forme a été financée en partie par le CNRS et le conseil général de l'Essonne.+ 
 +'''Evr@''' (Environnements Virtuels et de Réalité Augmentée ) est la plate-forme technologique de Réalité Virtuelle et Augmentée de l'UEVE et de Genopole. Elle est hébergée au laboratoire [http://www.ibisc.univ-evry.fr IBISC] (Informatique, Biologie Intégrative et Systèmes Complexes).
__TOC__ __TOC__
 +
 +== Document de référence ==
 +* [https://hal.archives-ouvertes.fr/hal-01224571 <image>source="pdf.png"</image> Rapport d'activité de la plateforme EVR@, 24 novembre 2016]
 +
 +== Contexte ==
 +* [https://maps.google.com/maps/ms?ie=UTF8&hl=fr&msa=0&msid=108064758265890176853.0004926aac291f47914f9&t=h&ll=25.799891,20.039063&spn=123.465771,225&z=2&source=embed Carte des acteurs de la Réalité Virtuelle et Augmentée en France]
== Présentation == == Présentation ==
 +=== Synopsis ===
 +La plateforme technologique EVR@ (Environnements Virtuels et de Réalité Augmentée), inaugurée en mai 2004 en présence des représentants de ses différents financeurs (UEVE, Conseil Général de l’Essonne, CNRS), est la plateforme de Réalité Virtuelle et Augmentée de l’Université d’Evry Val d’Essonne ; elle est également l’une des 14 plateformes technologiques et plateaux technique référencés par le Genopole®.
 +EVR@ s’inscrit pleinement dans les missions essentielles de l’UEVE : recherche, pédagogie et valorisation auprès d’un large public (chercheurs, industriels, étudiants, lycéens et familles).
 +
=== Contexte et objectifs scientifiques === === Contexte et objectifs scientifiques ===
-Un des axes scientifiques majeurs du LSC concerne l'étude et l'utilisation des systèmes de réalité virtuelle (RV) et de réalité augmentée (RA). +La plateforme technologique EVR@ est un outil « grandeur nature » pour la validation expérimentale de modèles théoriques impliquant une interaction entre un humain et un environnement virtuel ou réel assistée par l’ordinateur. D’un point de vue historique, les domaines scientifiques concernés jusqu’à présent sont ceux de l’équipe Réalité Augmenté et Télétravail Collaboratif, dirigée par le professeur Malik Mallem, membre du laboratoire IBISC, ex LSC, dont l’équipe s’est directement impliquée dans la création de la plateforme EVR@ et sa mise en service inaugurée en mai 2004.
-Le télétravail et, plus récemment, le télétravail collaboratifs constituent deux pôles d'applications mise en oeuvre au LSC (voir le projet [[ARITI]]). Dans ce cadre, l'objectif est d''''aider l'homme''' à piloter la réalisation de tâches accomplies à distance par un robot plus efficacement ou d'une manière plus fiable.+Le périmètre de la plateforme technologique EVR@ (voir Dispositifs) a été dessiné, par investissements successifs, pour servir en premier lieu les activités de recherche de l’équipe IRA2, qui concernent l’assistance informatisée à l’interaction d’une personne ou d’un ensemble de personnes, dans le cadre de leur travail ou de leur loisir. La question centrale qui se pose est : « Comment l’informatique couplée à des périphériques de retour sensoriel (vision, retour d’effort, interaction tactile, etc.) peut améliorer l’interaction de personnes dont le métier n’est pas l’informatique (en termes de confort ou de gain de temps - donc de productivité- par exemple) ? ».
-Une problématique essentielle dans la mise en oeuvre de tels système est l''''acceptation par l'homme''' de la manière dont il interagit avec les outils virtuels mis à sa disposition. L'accent est mis sur le '''réalisme de cette interaction''' (immersion visuelle, retour d'information haptique, pilotage intuitif du robot distant).+Répondre à cette question nécessite des compétences du point de vue de la recherche, mais aussi l’apport de matériels spécifiques et l’utilisation et la conception d’outils logiciels. Du point de vue de la recherche, le périmètre a historiquement évolué, partant de la Réalité Augmentée, dont le professeur Malik Mallem a été un des précurseurs dès les années 1980. La problématique d’étude de l’interaction d’une ou de plusieurs personnes avec des environnements virtuels ou distants, initiée par Samir Otmane (PR UEVE), a suivi et a réellement débuté juste avant la construction de la plateforme EVR@ « grandeur nature ». Parallèlement, le projet académique ARITI initié en 1998 par Samir Otmane et Malik Mallem concernant l’application de la Réalité Augmentée au service de la téléopération de robots a permis la connexion d’activités de recherche et applicatives différentes (Réalité Augmentée/Virtuelle et robotique). L’implication de Laredj Benchikh (MCF UEVE) a permis la réalisation d’un démonstrateur issu du projet ARITI sur des robots industriels FANUC, utilisés également en TPs à l’UFR-ST.
-Deux thématiques de recherche sont développées au LSC dans ce sens:+La plateforme technologique EVR@ permet la mise en œuvre matérielle et logicielle de problématiques métier inspirées par la question centrale donnée plus haut. Elle permet donc l’articulation de la recherche théorique et des projets applicatifs dont chacun pose une problématique métier spécifique.
-* L'une concerne l'étude de nouvelles interfaces homme machine multisensorielles intuitives actives et environnantes en RV et en RA+
-* L'autre traite de nouveaux systèmes de télétravail collaboratif+
-La plateforme EVR@ est un atout technologique majeur pour atteindre un plus grand réalisme de l'interaction homme/machine. 
-<!--[[Image:Fanuc-LRMate200i.jpg|right|300px|thumb|Un des robots sur le site distant : le robot FANUC LRMate-200i]]-->+[[Image:Site distant.jpg|right|300px|thumb|Site distant avec le robot 4ddl en premier plan et le robot FANUC LRMate-200i derrière]]
-[[Image:Site distant.jpg|right|300px|thumb|Site distant avec le robot ARITI en premier plan et le robot FANUC LRMate-200i derrière]]+ 
-=== Dispositif ===+=== Dispositifs ===
<!--La partie gauche de la figure figure 1 présente les éléments constituant la plateforme EVR@. --> <!--La partie gauche de la figure figure 1 présente les éléments constituant la plateforme EVR@. -->
Le dispositif sélectionné est un plan ou écran de projection. Celui-ci permet une forte immersion des utilisateurs grâce à une visualisation stéréo qui autorise la perception de la troisième dimension dans les images affichées. Il permet également, grâce à la technique de rétro-projection, de laisser l’utilisateur libre de ses mouvements sans entraîner d’occlusions dans l’image dues à la position arrière du projecteur. Le dispositif sélectionné est un plan ou écran de projection. Celui-ci permet une forte immersion des utilisateurs grâce à une visualisation stéréo qui autorise la perception de la troisième dimension dans les images affichées. Il permet également, grâce à la technique de rétro-projection, de laisser l’utilisateur libre de ses mouvements sans entraîner d’occlusions dans l’image dues à la position arrière du projecteur.
Le pilotage du robot distant peut être effectué par un flystick manipulé dans les trois dimensions par l'opérateur. Le pilotage du robot distant peut être effectué par un flystick manipulé dans les trois dimensions par l'opérateur.
-Les deux caméras infrarouge disposées des deux cotés du plan de projection permettent de repérer en temps réel dans les trois dimensions la position et l'orientation du flystick grâce à un ensemble de marqueurs situés sur ce dernier. Les mouvements de l'opérateur peuvent donc être retranscrits fidèlement dans le monde virtuel puis être traduit par des commandes au niveau du robot distant. +Les deux caméras infrarouge disposées des deux cotés du plan de projection permettent de repérer en temps réel la position et l'orientation du flystick grâce à un ensemble de marqueurs situés sur ce dernier offrant ainsi six degrés de liberté. Les mouvements de l'opérateur peuvent donc être retranscrits fidèlement dans le monde virtuel puis être traduit par des commandes au niveau du robot distant.
<!--Cette vidéo illustre ce processus dans le cadre applicatif du projet ARITI.--> <!--Cette vidéo illustre ce processus dans le cadre applicatif du projet ARITI.-->
-<!--[[Image:ARITI robot.gif|right|thumb|Un des robots sur le site distant : le robot 4 axes du projet [[ARITI]]]]--> 
- 
-<!--gallery> 
-Image:Flystick.jpg|Le flystick : un joystick manipulable en 3-dimensions 
-Image:Fanuc-LRMate200i.jpg|Un des robots sur le site distant : le robot FANUC LRMate-200i 
-</gallery--> 
- 
- 
-[[Image:Flystick.jpg|left|thumb|Le flystick : un joystick manipulable en 3-dimensions]] 
=== Lignes directrices scientifiques === === Lignes directrices scientifiques ===
-# Etude de l'interaction homme/machine: Nouveaux paradigmes d'interaction (3D HCI, Modélisation interactive 3D)+[[Image:Flystick.jpg|left|thumb|Le flystick : un joystick manipulable en 3-dimensions]]
-# Etude du travail collaboratif+# Étude de l'interaction homme/machine: Nouveaux paradigmes d'interaction (3D HCI, Modélisation interactive 3D)
-#* Objectif: étude et développement de nouveaux formalismes et des outils logiciels pour la gestion de la collaboration+# Étude du travail collaboratif
-#* Domaines d'applications:+#* Objectif : étude et développement de nouveaux formalismes et des outils logiciels pour la gestion de la collaboration
-#*# Téléopération collaborative : en développant de nouveaux Systèmes Multi-Agents (SMA) de collaboration adaptés aux applications de téléopération collaborative multi-utilisateurs (un exemple d’application est l’extension du système ARITI avec de nouvelles fonctionnalités de collaboration).+#* Domaines d'applications :
-#*# Présence /Télé-Présence Collaborative : en prenant en compte les nouveaux paradigmes de perception, d’interaction et de communication pouvant être développés dans les environnements de réalité mixte (RV/RA).+#*# Téléopération collaborative : en développant de nouveaux Systèmes Multi-Agents (SMA) de collaboration adaptés aux applications de téléopération collaborative multi-utilisateurs (voir le projet [http://ariti.ibisc.univ-evry.fr/ ARITI-C]),
-# Architecture logicielle pour le prototypage rapide des applications de Réalité Mixée+#*# Présence/Télé-Présence Collaborative : en prenant en compte les nouveaux paradigmes de perception, d’interaction et de communication pouvant être développés dans les environnements de réalité mixte (RV/RA),
-#* Objectif: développer une architecture logicielle ouverte permettant le prototypage rapide des applications de Réalité Mixte (RM).+# Architecture logicielle pour le prototypage rapide des applications de Réalité Mixée,
-#* Cette architecture doit permettre:+#* Objectif : développer une architecture logicielle ouverte permettant le prototypage rapide des applications de Réalité Mixée (RM - Voir le projet [[ARCS]]),
-#*# une exploitation efficace (comme le fait un système d’exploitation des ordinateurs) des différents modules (matériel et logiciel) utilisés dans les environnements de RM.+#* Cette architecture doit permettre :
-#*# une programmation rapide des applications ainsi que la mise à jour et le développement de nouvelles briques logicielles doit être possible et plus facile.+#*# Une exploitation efficace (comme le fait un système d’exploitation des ordinateurs) des différents modules (matériel et logiciel) utilisés dans les environnements de RM,
 +#*# Une programmation rapide des applications ainsi que la mise à jour et le développement de nouvelles briques logicielles doit être possible et plus facile.
 + 
 +=== Partenariats scientifiques ===
 +* [http://www.istia.univ-angers.fr/Automatisation/LISA/ Laboratoire d'Ingénierie des Systèmes Automatisés (LISA)] et sa plateforme technologique PREVISE inaugurée le 18/01/2005 [http://gsc2.cemif.univ-evry.fr/images/5/5d/Evra_previse_012005.pdf <image>source="Pdf.png"</image>Pdf]
== Galerie == == Galerie ==
Ligne 58 : Ligne 61 :
Image:Ariti2.jpg|Le robot 4 axes utilisé pour ARITI Image:Ariti2.jpg|Le robot 4 axes utilisé pour ARITI
Image:Fanuc-LRMate200i.jpg|Le robot Fanuc LRMate-200i Image:Fanuc-LRMate200i.jpg|Le robot Fanuc LRMate-200i
-Image:Site distant.jpg|Vue globale du site distant+Image:Site distant.jpg|Vue globale du site distant (esclave)
Image:Evra_big.jpg|Dispositif du site maître Image:Evra_big.jpg|Dispositif du site maître
Image:Projecteur Mirage 4000.jpg|Projecteur Mirage 4000 Image:Projecteur Mirage 4000.jpg|Projecteur Mirage 4000
Image:Nomad.jpg|Casque semi- transparent pour la réalité mixée Image:Nomad.jpg|Casque semi- transparent pour la réalité mixée
 +Image:Evra genopole 1.jpg|Site maître <br/><small>(Crédit : [http://www.genopole.org genopole])</small>
 +Image:Evra genopole 3.jpg|Site maître <br/><small>(Crédit : [http://www.genopole.org genopole])</small>
 +Image:Evra genopole 4.jpg|Site maître <br/><small>(Crédit : [http://www.genopole.org genopole])</small>
 +Image:Evra genopole 5.jpg|Site esclave <br/><small>(Crédit : [http://www.genopole.org genopole])</small>
</gallery> </gallery>
</center> </center>
Ligne 67 : Ligne 74 :
== Communication == == Communication ==
=== Articles de presse === === Articles de presse ===
 +* [http://evra.ibisc.univ-evry.fr/images/a/ac/Opticsvalley_lumiere_32-022007.pdf <image>source="pdf.png"</image>Lumière n°32 OpticsValley, janvier/février 2007]
* [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/a/af/Evra_republicain13mai2004.pdf <image>source="pdf.png"</image>Article du Républicain, 3 mai 2004] * [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/a/af/Evra_republicain13mai2004.pdf <image>source="pdf.png"</image>Article du Républicain, 3 mai 2004]
* [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/8/87/Evra_usinenouvellemai04.pdf <image>source="pdf.png"</image>Article du magazine Usine Nouvelle, mai 2004] * [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/8/87/Evra_usinenouvellemai04.pdf <image>source="pdf.png"</image>Article du magazine Usine Nouvelle, mai 2004]
* [[:Image:Evra sonovisionjuilletaout04.jpg|Article du magazine Sonovision, juillet-août 2004]] * [[:Image:Evra sonovisionjuilletaout04.jpg|Article du magazine Sonovision, juillet-août 2004]]
-* [http://www.critt-ccst.fr/newsletters/newsletter20.htm#compet1 Newsletter du CRITT, février 2006]+* [http://www.critt-ccst.fr/newsletters/newsletter20.htm Newsletter du CRITT n°20, février 2006],[http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/d/d9/Evra_CRITT_newsletter20-022006.pdf <image>source="pdf.png"</image>Document PDF interne]
 +* [http://www.savoirs.essonne.fr/index.php?id=558&print=146 Article paru dans Banque des Savoirs, 29 mai 2006], [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/4/4a/Evra_banque_des_savoirs-29052006.pdf <image>source="pdf.png"</image> Document PDF interne]
 +* [[:Image:Evra_journal_interne_genopole_juin2006.jpg|Article paru dans le journal interne de la Génopole, juin 2006]]
 +* [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/9/98/Evra_sonovisionjuin2006.pdf <image>source="pdf.png"</image>Article du magazine Sonovision, juin 2006]

Version actuelle

To English version

Image:Affiche_evr@.JPG

Evr@ (Environnements Virtuels et de Réalité Augmentée ) est la plate-forme technologique de Réalité Virtuelle et Augmentée de l'UEVE et de Genopole. Elle est hébergée au laboratoire IBISC (Informatique, Biologie Intégrative et Systèmes Complexes).

Sommaire


[modifier] Document de référence

[modifier] Contexte

[modifier] Présentation

[modifier] Synopsis

La plateforme technologique EVR@ (Environnements Virtuels et de Réalité Augmentée), inaugurée en mai 2004 en présence des représentants de ses différents financeurs (UEVE, Conseil Général de l’Essonne, CNRS), est la plateforme de Réalité Virtuelle et Augmentée de l’Université d’Evry Val d’Essonne ; elle est également l’une des 14 plateformes technologiques et plateaux technique référencés par le Genopole®. EVR@ s’inscrit pleinement dans les missions essentielles de l’UEVE : recherche, pédagogie et valorisation auprès d’un large public (chercheurs, industriels, étudiants, lycéens et familles).

[modifier] Contexte et objectifs scientifiques

La plateforme technologique EVR@ est un outil « grandeur nature » pour la validation expérimentale de modèles théoriques impliquant une interaction entre un humain et un environnement virtuel ou réel assistée par l’ordinateur. D’un point de vue historique, les domaines scientifiques concernés jusqu’à présent sont ceux de l’équipe Réalité Augmenté et Télétravail Collaboratif, dirigée par le professeur Malik Mallem, membre du laboratoire IBISC, ex LSC, dont l’équipe s’est directement impliquée dans la création de la plateforme EVR@ et sa mise en service inaugurée en mai 2004. Le périmètre de la plateforme technologique EVR@ (voir Dispositifs) a été dessiné, par investissements successifs, pour servir en premier lieu les activités de recherche de l’équipe IRA2, qui concernent l’assistance informatisée à l’interaction d’une personne ou d’un ensemble de personnes, dans le cadre de leur travail ou de leur loisir. La question centrale qui se pose est : « Comment l’informatique couplée à des périphériques de retour sensoriel (vision, retour d’effort, interaction tactile, etc.) peut améliorer l’interaction de personnes dont le métier n’est pas l’informatique (en termes de confort ou de gain de temps - donc de productivité- par exemple) ? ». Répondre à cette question nécessite des compétences du point de vue de la recherche, mais aussi l’apport de matériels spécifiques et l’utilisation et la conception d’outils logiciels. Du point de vue de la recherche, le périmètre a historiquement évolué, partant de la Réalité Augmentée, dont le professeur Malik Mallem a été un des précurseurs dès les années 1980. La problématique d’étude de l’interaction d’une ou de plusieurs personnes avec des environnements virtuels ou distants, initiée par Samir Otmane (PR UEVE), a suivi et a réellement débuté juste avant la construction de la plateforme EVR@ « grandeur nature ». Parallèlement, le projet académique ARITI initié en 1998 par Samir Otmane et Malik Mallem concernant l’application de la Réalité Augmentée au service de la téléopération de robots a permis la connexion d’activités de recherche et applicatives différentes (Réalité Augmentée/Virtuelle et robotique). L’implication de Laredj Benchikh (MCF UEVE) a permis la réalisation d’un démonstrateur issu du projet ARITI sur des robots industriels FANUC, utilisés également en TPs à l’UFR-ST.

La plateforme technologique EVR@ permet la mise en œuvre matérielle et logicielle de problématiques métier inspirées par la question centrale donnée plus haut. Elle permet donc l’articulation de la recherche théorique et des projets applicatifs dont chacun pose une problématique métier spécifique.


Site distant avec le robot 4ddl en premier plan et le robot FANUC LRMate-200i derrière
Site distant avec le robot 4ddl en premier plan et le robot FANUC LRMate-200i derrière

[modifier] Dispositifs

Le dispositif sélectionné est un plan ou écran de projection. Celui-ci permet une forte immersion des utilisateurs grâce à une visualisation stéréo qui autorise la perception de la troisième dimension dans les images affichées. Il permet également, grâce à la technique de rétro-projection, de laisser l’utilisateur libre de ses mouvements sans entraîner d’occlusions dans l’image dues à la position arrière du projecteur.

Le pilotage du robot distant peut être effectué par un flystick manipulé dans les trois dimensions par l'opérateur. Les deux caméras infrarouge disposées des deux cotés du plan de projection permettent de repérer en temps réel la position et l'orientation du flystick grâce à un ensemble de marqueurs situés sur ce dernier offrant ainsi six degrés de liberté. Les mouvements de l'opérateur peuvent donc être retranscrits fidèlement dans le monde virtuel puis être traduit par des commandes au niveau du robot distant.


[modifier] Lignes directrices scientifiques

Le flystick : un joystick manipulable en 3-dimensions
Le flystick : un joystick manipulable en 3-dimensions
  1. Étude de l'interaction homme/machine: Nouveaux paradigmes d'interaction (3D HCI, Modélisation interactive 3D)
  2. Étude du travail collaboratif
    • Objectif : étude et développement de nouveaux formalismes et des outils logiciels pour la gestion de la collaboration
    • Domaines d'applications :
      1. Téléopération collaborative : en développant de nouveaux Systèmes Multi-Agents (SMA) de collaboration adaptés aux applications de téléopération collaborative multi-utilisateurs (voir le projet ARITI-C),
      2. Présence/Télé-Présence Collaborative : en prenant en compte les nouveaux paradigmes de perception, d’interaction et de communication pouvant être développés dans les environnements de réalité mixte (RV/RA),
  3. Architecture logicielle pour le prototypage rapide des applications de Réalité Mixée,
    • Objectif : développer une architecture logicielle ouverte permettant le prototypage rapide des applications de Réalité Mixée (RM - Voir le projet ARCS),
    • Cette architecture doit permettre :
      1. Une exploitation efficace (comme le fait un système d’exploitation des ordinateurs) des différents modules (matériel et logiciel) utilisés dans les environnements de RM,
      2. Une programmation rapide des applications ainsi que la mise à jour et le développement de nouvelles briques logicielles doit être possible et plus facile.

[modifier] Partenariats scientifiques

[modifier] Galerie

[modifier] Communication

[modifier] Articles de presse