EyeCharm : contrôler son PC du regard avec un capteur Kinect La lentille qui équipe EyeCharm est fabriquée en Allemagne. L’algorithme travaille à partir des données fournies par les images, ce qui implique une puissance de calcul assez importante. 4titoo indique à titre d’exemple que son algorithme consomme 5 % de la puissance d’un processeur Intel Core i5-3470 cadencé à 3,2 GHz. L’entreprise compte optimiser son algorithme, mais recommande d’utiliser son accessoire avec un PC équipé d’un processeur AMD ou Intel multicœur et avec au moins 2 Go de mémoire vive. © 4titoo EyeCharm : contrôler son PC du regard avec un capteur Kinect - 1 Photo La détection du mouvement des yeux pour commander l’interface d’un ordinateur est prometteuse, mais elle est encore chère et rare. Toutefois, il existe une solution beaucoup moins onéreuse qui pourrait réellement démocratiser la détection du regard sur PC. L’adaptateur EyeCharm projette une lumière infrarouge sur le visage de la personne qui fait face à l’écran. A voir aussi sur Internet Sur le même sujet
Defense Advanced Research Projects Agency Un article de Wikipédia, l'encyclopédie libre. La Defense Advanced Research Projects Agency (DARPA, « Agence pour les projets de recherche avancée de défense ») est une agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire. Jusqu’à aujourd’hui, la DARPA a été à l’origine du développement de nombreuses technologies qui ont eu des conséquences considérables dans le monde entier dont notamment les réseaux informatiques (notamment l’ARPANET qui a fini par devenir Internet) et le NLS (sigle représentant, en anglais, l’expression oN-Line System, en français, littéralement, Système en ligne) qui a été à la fois le premier système hypertexte et un précurseur important des interfaces graphiques devenues omniprésentes de nos jours. Historique[modifier | modifier le code] Film promotionnel de la DARPA pour son 50e anniversaire en 2008. Depuis sa naissance le nom de cette agence a quelque peu varié.
Mouse Control via Webcam Introduction This application uses emguCV, a .NET wrapper for openCV, to perform image processing, through which we try to recognize hand gestures and control mouse using these gestures. In this app, cursor movement is controlled by the movement of hand and click events are triggered using hand gestures. Background I always wanted to have one such handy app to control mouse. Using the code The code uses a well known library for image processing, known as, openCV in the form of emguCV which is a .NET wrapper of it. First of all the application tries to catch a video input device. private void Form1_Load(object sender, EventArgs e) { try { CapWebCam = new Capture(); } catch () { } Application.Idle += ProcessFramAndUpdateGUI; } The processing code is divided into three main parts: Image Filtering to obtain biggest skin colored contour. Filtering to obtain skin colored contour First of all YCbCr filter is applied, with required thresholds to obtain skin colored parts of the image. 1. 2. 3.
BrainGate Un article de Wikipédia, l'encyclopédie libre. Schéma d'une interface neuronale directe BrainGate est un système d'implants neuronaux mis au point par la société de bio-technologie Cyberkinetics en 2003, en collaboration avec le département de Neurosciences à l'Université Brown. Applications[modifier | modifier le code] En pratique[modifier | modifier le code] La puce utilise une centaine d'électrodes chacune épaisse comme un cheveu, qui réagissent à la signature électromagnétique des neurones dans certaines régions spécifiques du cerveau, par exemple la zone qui contrôle les mouvements du bras. L'activité est traduite en signaux électriques qui sont ensuite envoyés et décodés à l'aide d'un programme, qui peut bouger soit un bras robotisé soit un curseur informatique. En plus d'une analyse en temps réel des modèles neuronaux pour relayer un mouvement, le système BrainGate est aussi capable d'enregistrer des données électriques pour des analyses ultérieures.
Une technologie 3D sans lunettes pour smartphones et tablettes Le chercheur français David Fattal travaille actuellement dans le groupe de nanophotonique des HP Labs de Palo Alto, en Californie. Diplômé de l’École polytechnique (major de promotion) et de l’université Stanford, il est lauréat du prix MIT Technology Review qui vient de lui être décerné en tant que jeune innovateur français de moins de 35 ans. Il compte à son actif une cinquantaine de brevets. © HP, Nature Une technologie 3D sans lunettes pour smartphones et tablettes - 3 Photos Dans une célèbre scène de la saga Star Wars, le robot R2D2 projette un hologramme vidéo de la princesse Leia. Cette technologie, nous la retrouverons peut-être bientôt dans les smartphones, les tablettes tactiles, et pourquoi pas les montres intelligentes. Dans cette vidéo de démonstration, l’affichage en 3D développé par David Fattal et son équipe des HP Labs fonctionne sur un écran de 6 pouces en offrant 64 angles de vue différents en mode RGB (rouge, vert, bleu). David Fattal distingué par le MIT
Neuroprosthetics Neuroprosthetics (also called neural prosthetics) is a discipline related to neuroscience and biomedical engineering concerned with developing neural prostheses. They are sometimes contrasted with a brain–computer interface, which connects the brain to a computer rather than a device meant to replace missing biological functionality. Neural prostheses are a series of devices that can substitute a motor, sensory or cognitive modality that might have been damaged as a result of an injury or a disease. Cochlear implants provide an example of such devices. These implantable devices are also commonly used in animal experimentation as a tool to aid neuroscientists in developing a greater understanding of the brain and its functioning. Accurately probing and recording the electrical signals in the brain would help better understand the relationship among a local population of neurons that are responsible for a specific function. History[edit] Visual prosthetics[edit] Auditory prosthetics[edit]
Kinect peut assister les chirurgiens pendant les interventions Le torse, la tête et les bras du praticien sont suivis en permanence par le capteur Kinect afin de recueillir des informations contextuelles qui alimentent l’algorithme. Selon les chercheurs, ces données ont permis de réduire de façon très significative le pourcentage de faux positifs. © Université Purdue Kinect peut assister les chirurgiens pendant les interventions - 2 Photos Lors d’une opération chirurgicale, les médecins utilisent couramment l’IRM (imagerie par résonance magnétique). La manipulation de ces images nécessite que le praticien (ou une personne qui l’assiste) accède à l’ordinateur pour afficher les clichés au cours de l’intervention. Une alternative qui est en train de s’imposer repose sur la technologie de détection des mouvements, afin de permettre aux chirurgiens de manipuler l’outil informatique et les contenus dont ils ont besoin par leurs seuls gestes. La main créée par le Kinect dirigée par les gestes Le Kinect reconnaît 97 % des commandes A voir aussi sur Internet
Brain-to-brain coupling: a mechanism for cre... [Trends Cogn Sci. 2012 Kinect devient une interface pour Windows Le boîtier Kinect, avec sa caméra, son détecteur infrarouge et ses microphones, voit et entend ce qui se passe autour de lui. Ses logiciels repèrent les êtres humains et peuvent reconnaître les visages. © Microsoft Kinect devient une interface pour Windows - 2 Photos Microsoft a réuni, jusqu’à ce soir, développeurs et journalistes à Las Vegas pour la conférence MIX 11 et a commencé une série d’annonces ou de démonstrations. Comme on s’y attendait, un autre SDK a été présenté : celui qui permet aux développeurs de réaliser des logiciels pour Windows utilisant l’interface « corporelle » Kinect. Avant d'envoyer un mail, ne pas oublier de lécher le timbre (virtuel) et de le coller sur l'enveloppe (virtuelle). Au dernier salon de la réalité virtuelle, Laval Virtual, le boîtier Kinect était d’ailleurs présent sur de nombreux stands pour des applications les plus diverses. A voir aussi sur Internet Sur le même sujet
Global Consciousness Project -- consciousness, group consciousness, mind Un gant capable de reconnaître l’écriture tracée dans le vide À l'image, le processus de reconnaissance d’écriture virtuelle. Les capteurs embarqués dans le gant détectent les mouvements, l’inertie et l’angle de la main (motion sensing with internal sensor). Ensuite, l’algorithme sépare les gestes des mouvements propres à l’écriture (write/no-write segmentation), puis applique le modèle statistique qui décode le geste pour reconnaître les lettres et les mots (HMM decoding + language model) et enfin produire le résultat (Final hypothesis). © Institut de technologie de Karlsruhe Un gant capable de reconnaître l’écriture tracée dans le vide - 2 Photos Après l’air guitar, bientôt l’air writing ? Rédiger un texto ou un courriel dans le vide et voir les mots apparaître sur l’écran de son ordinateur, de sa tablette ou de son smartphone, voilà ce que l’on pourrait faire dans un avenir pas si lointain grâce aux vêtements intelligents. Le gant mis au point par les chercheurs de l’Institut de technologie de Karlsruhe. A voir aussi sur Internet
Blue Brain Project The Blue Brain Project is an attempt to create a synthetic brain by reverse-engineering the mammalian brain down to the molecular level. The aim of the project, founded in May 2005 by the Brain and Mind Institute of the École Polytechnique Fédérale de Lausanne (EPFL) in Switzerland, is to study the brain's architectural and functional principles. There are a number of sub-projects, including the Cajal Blue Brain, coordinated by the Supercomputing and Visualization Center of Madrid (CeSViMa), and others run by universities and independent laboratories. Goals[edit] Neocortical column modelling[edit] The initial goal of the project, completed in December 2006,[4] was the simulation of a rat neocortical column, which is considered by some researchers to be the smallest functional unit of the neocortex[5][6] (the part of the brain thought to be responsible for higher functions such as conscious thought). Progress[edit] By 2005 the first single cellular model was completed. Funding[edit]