ELECINF344/381

Partie interactive du site pédagogique ELECINF344/ELECINF381 de Télécom ParisTech (occurrence 2011).

Catégories

[CASPER] – Mouvements et expression d’émotions

Comme nous l’avons précisé lors de la soutenance initiale, CASPER devra pouvoir exprimer des émotions. Il nous fallait encore préciser sous quelle forme.

Nous avons finalement choisi de doter CASPER de deux sourcils, et éventuellement d’une mâchoire, articulés. Les mouvements possibles resteront basiques :
- rotation des sourcils autour d’un axe (ce qui permet de les incliner plus ou moins et d’exprimer assez naturellement des émotions comme la surprise, la colère, la perplexité, etc.)
- éventuellement mouvement vertical de la mâchoire inférieure, l’intérêt étant principalement de pouvoir simuler sommairement la parole lors des épisodes de synthèse vocale, afin de rendre  CASPER plus « vivant ». Nous ne sommes cependant pas encore certains de l’implantation de cette fonctionnalité (a-t-elle un impact réellement intéressant du point de vue de l’utilisateur ?)

De plus, afin de rendre possible le tracking visuel, le tout sera monté sur une base pivotante (tracking horizontal) et sera inclinable (tracking vertical).

Tous ces mouvements seront réalisés grâce à des servomoteurs, dont nous n’avons pas encore fixé le(s) modèle(s).

J’ai quant à moi commencé à implanter une version de test des algorithmes de détection des visages et reconnaissance faciale afin de tester l’influence de certains paramètres, comme les conditions d’éclairage et la résolution de la prise de vue. Le but est de pouvoir quantifier la robustesse de ces algorithmes et la charge de calcul que pourraient ajouter certains pré- et post-traitements nécessaires en vue d’en augmenter la robustesse.

Sur le même sujet :

  1. [CASPER] Reconnaissance et synthèse vocale / Solutions Wi-Fi
  2. Casper – Keypoints

Commentaires fermés.