fbpx

MIC

Étendre les capacités de Nao grâce au Cloud

L’auteur: Damien Lefebvre Technologies utilisées: Python, Nao, Azure Niveau de difficulté: 100 Introduction Cet article explique comment permettre à Nao de communiquer avec un service hébergé sur Windows Azure, grâce à un module écrit en python. Avant de commencer, je vais vous présenter Nao : Nao est un robot humanoïde programmable mesurant Lire la suite…

Par admin, il y a

Se connecter au casque Emotiv en 5 minutes

L’auteur: François Bruynbroeck Technologies utilisées: C#, Emotiv SDK Niveau de difficulté: 200 Comme premier tutoriel, rien de mieux que de commencer par la connexion de notre device. Pour le moment, il est possible de développer en C++, C#/VB.NET et Java. Personnellement, j’ai choisi d’utiliser le C#. Avant de rentrer dans Lire la suite…

Par admin, il y a

Réalisez vos croquis avec Sketchflow

L’auteur: Giuliano Dore Technologies utilisées: Expression Blend 3 Niveau de difficulté: 100 Il m’est déjà arrivé lors de l’analyse d’une l’application Windows Phone 7 d’être calé par les outils ne permettant pas de faire des croquis rapides et intuitifs, de là je revenais à la bonne vieille équipe feuille-crayon mais Lire la suite…

Par admin, il y a

Windows Phone et Azure Storage

L’auteur: Julien Lebutte Technologies utilisées: Windows Phone 7, Azure Storage Niveau de difficulté: 200 L’une des possibilités pour stocker en ligne les images prises à partir d’un Windows Phone est d’utiliser un compte de stockage proposé par Windows Azure.  Au travers de cet article, je vous propose de réaliser une Lire la suite…

Par admin, il y a

Kinect SDK 1.0 – Hands-on !

Note : everything you’ve done with Kinect SDK 1.0 still works with Kinect SDK 1.5 ! Don’t hesitate to read those blogposts if you want to learn the basics ! 😉 Le MIC vous propose sur son blog une série de 5 articles consacrés à la Kinect pour Windows! En les Lire la suite…

Par ADA, il y a

Kinect SDK 1.0 – 5 – Reconnaissance vocale

 1. Introduction à l’API
 2. Utilisation du ColorImageStream
 3. Tracker le squelette avec le SkeletonStream
 4. Kinect en profondeur avec le DepthStream
 5. Reconnaissance vocale

 

Voici le dernier article de cette série consacrée au Kinect SDK 1.0. Dans les précédents articles on a vu comment afficher une vidéo avec le ColorImageStream, comment tracker les utilisateurs avec le SkeletonStream, comment faire une vidéo 3D avec le DepthImageStream.

Pour terminer et ajouter un petit plus à vos applications en termes de Natural User Interface, on va voir comment utiliser la reconnaissance vocale!

Pensez expérience utilisateur

Quand vous développez une application utilisant la Kinect, essayez de vous mettre à la place des utilisateurs. Quelle est l’utilisation que vous en faites? Est-ce que les utilisateurs devront prendre des postures spécifiques? Ou bien réaliser un certain mouvement pour déclencher une action? Est-ce que cette tâche sera répétitive?

Rappelez-vous que les gestures (mouvements) sont difficiles à détecter avec certitude dû à leur différentes interprétations par les utilisateurs. Rappelez-vous également que l’éventail de mouvement est limité! Vous pouvez facilement différencier un « salut » de la main droite, d’un de la main gauche. Une main en bas, ou en haut.

Demandez-vous aussi, comment gérer le fait de devoir déclencher plusieurs actions simultanément?

Si vous deviez arriver au point de faire des mouvements trop complexes, ou difficiles à exécuter, les utilisateurs risqueraient vite d’être fatigués, ou lassés de votre application. Et dès lors, ils en auront une mauvaise expérience.

Dans ce contexte, l’utilisation de la reconnaissance vocale semble être une bonne idée! (suite…)

Par ADA, il y a

Kinect SDK 1.0 – 4 – Kinect en profondeur avec le DepthStream

 1. Introduction à l’API
 2. Utilisation du ColorImageStream
 3. Tracker le squelette avec le SkeletonStream
 4. Kinect en profondeur avec le DepthStream
 5. Reconnaissance vocale

Ce nouvel article va encore une fois mettre en avant une particularité de la Kinect, qui est sa capacité à avoir une vue en 3 dimensions de l’espace.

Cela peut sembler anodin à l’heure où on est inondés de films 3D, mais la technologie utilisée par la Kinect n’est pas du tout la même que celle utilisée dans le cinéma: pour tourner un film en 3D, on utilise de la 3D stéréoscopique. Dans ce cas, ils n’utilisent non pas une mais deux caméras espacées pour reproduire la vision des yeux et obtenir simplement une image pour l’oeil droit et une image pour l’oeil gauche. C’est ensuite votre cerveau qui traite les informations des deux images et apporte une notion de distance.

La Kinect par contre va utiliser un émetteur et un récepteur d’infrarouges qui vont permettre de calculer la distance des points de l’environnement. La Kinect se suffit donc à elle même!

Dans cet article on va voir comment obtenir un DepthImageFrame de la Kinect, et comment l’utiliser pour créer une vidéo en 3 dimension! Au passage on va également avoir un exemple de polling (je vous en avais parlé dans le premier article). (suite…)

Par ADA, il y a

Kinect SDK 1.0 – 3 – Tracker les mouvements avec le SkeletonStream

 1. Introduction à l’API
 2. Utilisation du ColorImageStream
 3. Tracker le squelette avec le SkeletonStream
 4. Kinect en profondeur avec le DepthStream
 5. Reconnaissance vocale

 

Dans les articles précédents, on a vu comment se connecter à une Kinect, et comment se servir du ColorStream. Globalement, avec ça, on n’a pas vraiment utilisé la Kinect différemment d’une bête webcam…

Mais cette fois-ci on entre dans le vif du sujet! On va parler du SkeletonStream

Le SkeletonStream, c’est quoi?

C’est un flux de données que renvoie la Kinect et qui vous permet de connaître la position d’un utilisateur face à la Kinect, mais pas seulement: on peut obtenir jusqu’à 20 points (Joint) du corps, positionnés dans un espace à 3 dimensions! (suite…)

Par ADA, il y a