- Information-based Intelligent Unmanned Ground Vehicle
Navigation
[Madhavan & Messina 2003] : ENTROPY03
Cet article présente une métrique basée sur l'entropie pour évaluer la
quantité et l'utilité de l'information que contient une image de
capteur (caméra par exemple). Il décrit tout d'abord la notion
d'entropie probabiliste et la métrique utilisée pour l'étude d'image ; il
présente ensuite très brièvement l'architecture RCS de leur UGV (Unmaned Ground Vehicle) puis donne trois exemples possibles
d'application de cette métrique : traitement de l'image (pour extraire
l'information significative), localisation à l'aide de filtres de
Kalman, et prédiction de l'utilité de l'information d'une image (par
exemple pour suivre un objet en déplacement).
- Rover Autonomy for Long Range Navigation and Science Data
Acquisition on Planetary Surfaces
[Huntsberger et al. 2002] : FIDO02
Cet article présente trois méthodes de navigation pour le rover
autonome FIDO ; il décrit d'abord rapidement l'architecture matérielle
et logicielle du rover, puis présente les 3 méthodes. Dans le long range navigation, le rover utilise deux types de cartes : une
carte globale de 12 mètres de portée pour générer un chemin, et une
carte locale d'une portée de un mètre pour éviter des obstacles ; ces
deux cartes ne sont pas partagées, et la génération de la carte
globale demande une vingtaine de minutes. Dans le long range
rendezvous, le rover suit successivement quatre comportements
différents en fonction de
sa distance et de sa position par rapport à la plate-forme sur laquelle
il doit monter. Dans le autonomous science target rendezvous,
le rover se déplace mètre par mètre pour corriger sa position et
arriver exactement à une cible choisie par un opérateur au
sol. L'article présente ensuite des résultats expérimentaux effectués
en extérieur sur Terre.
- Implementation and Evaluation of a Satisfaction/Altruism Based
Architecture for Multi-Robot Systems
[Lucidarme et al. 2002] : ALTRUISM02
Cet article présente une méthode pour mettre en place la coopération
de systèmes multi-agents ; les agents considérés sont de type réactifs
plutôt que délibératifs. L'article présente d'abord les concepts de
la méthode proposée : la satisfaction personnelle d'un agent qui
représente son progrès dans la tâche demandée, et la satisfaction
interactive de l'agent qui est positive si l'agent demande de l'aide,
et négative s'il est gêné ou en conflit avec un autre agent. Les
agents vont chercher à s'approcher ou
s'éloigner de l'agent dont la valeur absolue de satisfaction
interactive est la plus élevée. L'article présente
ensuitel'architecture matérielle et logicielle d'une implémentation de
tels agents, et quelques applications théoriques et expérimentales.
- Human Error Recovery for A Human/Robot Parts Conveyance
System
[Yamada et al. 2002] : HMM02
Cet article présente une méthode permettant à un robot-manipulateur
industriel de
détecter une erreur de commande provenant de son utilisateur. Cette
méthode utilise un HMM (Hidden Markov Model) pour prévoir
la trajectoire du robot ; en cas de changement brutal de direction, le
robot juge statistiquement si l'intention de l'opérateur a changé, et
calcule alors la nouvelle trajectoire. Le robot peut ainsi corriger ou
avertir son opérateur lorsqu'il trouve une incohérence entre
cette intention et la tâche demandée. L'article présente par exemple une
expérience où des opérateurs doivent
déplacer des barils numérotés sur différents sites en fonction de ces
numéros ; en détectant un mauvais choix de site par
l'opérateur, le robot permet de réduire le temps
pris par ces opérations.
- Planetary Rover Control as a Markov Decision Process
[Bernstein et al. 2001] : ROVERMDP01
Cet article présente une méthode combinant un MDP (Markov
Decision Process) et un algorithme d'apprentissage par renforcement
pour guider le planificateur d'un rover autonome. Il
décrit tout d'abord la modèlisation du rover employée, puis cherche à
maximiser l'efficacité d'un plan d'une part par une heuristique,
d'autre part par un algorithme d'apprentissage par renforcement. Il
compare ensuite ces deux approches : l'algorithme d'apprentissage
obtenant de meilleurs résultats. L'article présente ensuite des points
à préciser dans cette méthode, en particulier la simplification du
modèle qui a été faite pour obtenir les résultats, et l'utilisation
de meilleures politiques d'heuristique et d'apprentissage pour
obtenir une meilleure validation de cette comparaison.
benjamin lussier
2004-04-16