background preloader

Yannickelricardo

Facebook Twitter

Leap Motion. Une technologie 3D sans lunettes pour smartphones et tablettes. Le chercheur français David Fattal travaille actuellement dans le groupe de nanophotonique des HP Labs de Palo Alto, en Californie. Diplômé de l’École polytechnique (major de promotion) et de l’université Stanford, il est lauréat du prix MIT Technology Review qui vient de lui être décerné en tant que jeune innovateur français de moins de 35 ans. Il compte à son actif une cinquantaine de brevets. © HP, Nature Une technologie 3D sans lunettes pour smartphones et tablettes - 3 Photos Dans une célèbre scène de la saga Star Wars, le robot R2D2 projette un hologramme vidéo de la princesse Leia. Cette technologie, nous la retrouverons peut-être bientôt dans les smartphones, les tablettes tactiles, et pourquoi pas les montres intelligentes.

Elle a été développée chez HP par David Fattal, un chercheur français de 33 ans seulement. David Fattal distingué par le MIT Cette technique permet de gérer chaque pixel indépendamment et de ne pas recourir aux filtres de couleur. A voir aussi sur Internet. Mouse Control via Webcam. Introduction This application uses emguCV, a .NET wrapper for openCV, to perform image processing, through which we try to recognize hand gestures and control mouse using these gestures. In this app, cursor movement is controlled by the movement of hand and click events are triggered using hand gestures. Background I always wanted to have one such handy app to control mouse.

Using the code The code uses a well known library for image processing, known as, openCV in the form of emguCV which is a .NET wrapper of it. First of all the application tries to catch a video input device. Private void Form1_Load(object sender, EventArgs e) { try { CapWebCam = new Capture(); } catch () { } Application.Idle += ProcessFramAndUpdateGUI; } The processing code is divided into three main parts: Image Filtering to obtain biggest skin colored contour.

Filtering to obtain skin colored contour First of all YCbCr filter is applied, with required thresholds to obtain skin colored parts of the image. 1. 2. 3. EyeCharm : contrôler son PC du regard avec un capteur Kinect. La lentille qui équipe EyeCharm est fabriquée en Allemagne. L’algorithme travaille à partir des données fournies par les images, ce qui implique une puissance de calcul assez importante. 4titoo indique à titre d’exemple que son algorithme consomme 5 % de la puissance d’un processeur Intel Core i5-3470 cadencé à 3,2 GHz. L’entreprise compte optimiser son algorithme, mais recommande d’utiliser son accessoire avec un PC équipé d’un processeur AMD ou Intel multicœur et avec au moins 2 Go de mémoire vive. © 4titoo EyeCharm : contrôler son PC du regard avec un capteur Kinect - 1 Photo La détection du mouvement des yeux pour commander l’interface d’un ordinateur est prometteuse, mais elle est encore chère et rare. On se souvient de l’application Gaze mise au point par la société suédoise Tobii, que nous avions découverte lors de l’édition 2012 du Consumer Electronics Show.

L’adaptateur EyeCharm projette une lumière infrarouge sur le visage de la personne qui fait face à l’écran. Interface neuronale directe. Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir IND et BCI. Schéma d'une interface neuronale directe Une interface neuronale directe - aussi appelée IND ou BCI[1] (Brain-Computer Interface : Interface Cerveau-Machine, ou encore Interface Cerveau-Ordinateur) est une interface de communication directe entre un cerveau et un dispositif externe (un ordinateur, un système électronique, etc.).

Ces systèmes peuvent être conçus pour assister, améliorer ou réparer des fonctions humaines de cognition ou d'action défaillantes. L'IND peut être unidirectionnelle ou bidirectionnelle. Ce type de périphérique est fondamentalement différent de toute autre interface homme-machine : une telle liaison ne requiert en effet aucune transformation préalable du signal électrique émis par l’activité cérébrale en activité musculaire (psychomotrice), cette dernière étant usuellement traduite en signal d’entrée pour la machine. Principe[modifier | modifier le code] Un rapport conclu : Kinect peut assister les chirurgiens pendant les interventions. Le torse, la tête et les bras du praticien sont suivis en permanence par le capteur Kinect afin de recueillir des informations contextuelles qui alimentent l’algorithme. Selon les chercheurs, ces données ont permis de réduire de façon très significative le pourcentage de faux positifs. © Université Purdue Kinect peut assister les chirurgiens pendant les interventions - 2 Photos Lors d’une opération chirurgicale, les médecins utilisent couramment l’IRM (imagerie par résonance magnétique).

La manipulation de ces images nécessite que le praticien (ou une personne qui l’assiste) accède à l’ordinateur pour afficher les clichés au cours de l’intervention. Ces manipulations peuvent parasiter la concentration et ajoutent un problème de stérilisation du matériel informatique, souris et clavier pouvant être des vecteurs de contamination. Dans cette simulation réalisée par les chercheurs de l’université Purdue, on peut voir comment un chirurgien manipule des IRM par les gestes de sa main gauche. Kinect devient une interface pour Windows.

Le boîtier Kinect, avec sa caméra, son détecteur infrarouge et ses microphones, voit et entend ce qui se passe autour de lui. Ses logiciels repèrent les êtres humains et peuvent reconnaître les visages. © Microsoft Kinect devient une interface pour Windows - 2 Photos Microsoft a réuni, jusqu’à ce soir, développeurs et journalistes à Las Vegas pour la conférence MIX 11 et a commencé une série d’annonces ou de démonstrations. Les participants ont ainsi découvert la version 10 d’Internet Explorer et les développeurs ont appris la sortie en mai d’un « SDK » (software development kit, kit de développement logiciel) pour le système d’exploitation pour mobiles Windows Phone 7.5. Comme on s’y attendait, un autre SDK a été présenté : celui qui permet aux développeurs de réaliser des logiciels pour Windows utilisant l’interface « corporelle » Kinect. Avant d'envoyer un mail, ne pas oublier de lécher le timbre (virtuel) et de le coller sur l'enveloppe (virtuelle).

A voir aussi sur Internet. Un gant capable de reconnaître l’écriture tracée dans le vide. À l'image, le processus de reconnaissance d’écriture virtuelle. Les capteurs embarqués dans le gant détectent les mouvements, l’inertie et l’angle de la main (motion sensing with internal sensor). Ensuite, l’algorithme sépare les gestes des mouvements propres à l’écriture (write/no-write segmentation), puis applique le modèle statistique qui décode le geste pour reconnaître les lettres et les mots (HMM decoding + language model) et enfin produire le résultat (Final hypothesis). © Institut de technologie de Karlsruhe Un gant capable de reconnaître l’écriture tracée dans le vide - 2 Photos Après l’air guitar, bientôt l’air writing ? Rédiger un texto ou un courriel dans le vide et voir les mots apparaître sur l’écran de son ordinateur, de sa tablette ou de son smartphone, voilà ce que l’on pourrait faire dans un avenir pas si lointain grâce aux vêtements intelligents.

Le gant mis au point par les chercheurs de l’Institut de technologie de Karlsruhe. A voir aussi sur Internet. Holodesk, pour manipuler des hologrammes, façon Star Trek. Des lunettes à réalité augmentée pour manipuler les objets en 3D. La paire de lunettes à réalité augmentée développée par Meta sur la base des lunettes Epson Moverio. Surmontées d’un capteur de mouvement, elles permettent de manipuler les objets virtuels du bout des doigts. Meta compte produire un kit de développement pour que les développeurs puissent créer des applications exploitant cette technologie. © Meta Des lunettes à réalité augmentée pour manipuler les objets en 3D - 2 Photos Ces derniers temps, on entend beaucoup parler de réalité augmentée, notamment depuis que Google a lancé son projet de lunettes, dont un premier exemplaire doit sortir cette année.

Mais le géant américain n’est ni le seul ni le premier à travailler sur cette technologie qui recouvre de nombreuses applications. L’une d’elles consiste à contrôler des éléments virtuels avec les gestes. C’est précisément ce sur quoi travaille Meta. Un exemple d’application du système de réalité augmentée de Meta tiré de sa vidéo de démonstration. Meta propose de la « vraie » réalité augmentée.

8 façons d’améliorer l'expérience utilisateur sur votre site. Un site web doit être en adéquation avec les besoins des utilisateurs afin qu’ils puissent trouver les informations recherchées et réaliser les tâches nécessaires le plus rapidement possible. Les sites lents ou qui proposent une interface déroutante sont frustrants et la majorité des utilisateurs sont peu tolérants avec les expériences utilisateurs pauvres.

Améliorer constamment votre site est très important pour maintenir un flux constant d’utilisateurs heureux. Si vous buttez sur ce sujet, voici quelques idées pour commencer à optimiser votre site. 1. Améliorez la vitesse de chargement Pour perdre un utilisateur, quelques secondes suffisent ! 2. Le logo présent dans l’en-tête de votre site doit être comme un phare, guidant les utilisateurs vers la page d’accueil lorsqu’ils en éprouvent le besoin. 3. Les citoyens du web 2.0 sont désormais largement dépendants des fonctions de recherche afin de trouver les informations demandées. 4. Personne n’aime un site encombré. 5. 6. 7. 8. Conclusion. Guide de référence des interactions tactiles.