background preloader

Interface neuronale directe

Interface neuronale directe
Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir IND et BCI. Schéma d'une interface neuronale directe Une interface neuronale directe - aussi appelée IND ou BCI[1] (Brain-Computer Interface : Interface Cerveau-Machine, ou encore Interface Cerveau-Ordinateur) est une interface de communication directe entre un cerveau et un dispositif externe (un ordinateur, un système électronique, etc.). L'IND peut être unidirectionnelle ou bidirectionnelle. Ce type de périphérique est fondamentalement différent de toute autre interface homme-machine : une telle liaison ne requiert en effet aucune transformation préalable du signal électrique émis par l’activité cérébrale en activité musculaire (psychomotrice), cette dernière étant usuellement traduite en signal d’entrée pour la machine. Principe[modifier | modifier le code] Une IND unidirectionnelle : En revanche, une IND bidirectionnelle : Historique[modifier | modifier le code] Premiers travaux[modifier | modifier le code]

EyeCharm : contrôler son PC du regard avec un capteur Kinect La lentille qui équipe EyeCharm est fabriquée en Allemagne. L’algorithme travaille à partir des données fournies par les images, ce qui implique une puissance de calcul assez importante. 4titoo indique à titre d’exemple que son algorithme consomme 5 % de la puissance d’un processeur Intel Core i5-3470 cadencé à 3,2 GHz. L’entreprise compte optimiser son algorithme, mais recommande d’utiliser son accessoire avec un PC équipé d’un processeur AMD ou Intel multicœur et avec au moins 2 Go de mémoire vive. © 4titoo EyeCharm : contrôler son PC du regard avec un capteur Kinect - 1 Photo La détection du mouvement des yeux pour commander l’interface d’un ordinateur est prometteuse, mais elle est encore chère et rare. Toutefois, il existe une solution beaucoup moins onéreuse qui pourrait réellement démocratiser la détection du regard sur PC. L’adaptateur EyeCharm projette une lumière infrarouge sur le visage de la personne qui fait face à l’écran. A voir aussi sur Internet Sur le même sujet

Nanosciences et progrès médical Certaines parties du corps humain (organes, cellules) se dégradent au cours du temps, voire sont altérées dès la naissance. Il est légitime d'espérer trouver au travers des nanotechnologies les moyens de compenser partiellement ou totalement ces déficits. En premier lieu, on pensera notamment aux possibilités offertes par la connexion entre un dispositif électronique et des cellules vivantes (cellules nerveuses ou neurones) qui pourront peut-être un jour servir à restaurer une connexion nerveuse rompue par un accident ou une maladie, voire à remplacer un organe sensitif. Toutefois, dans le long terme, on ne peut exclure la mise au point de neuroprothèse. « Une neuroprothèse pourrait un jour aider des personnes paralysées après une lésion de la moelle épinière à retrouver une autonomie partielle. Elle peut s'appliquer à des tissus très divers : peau, vaisseaux sanguins, tendons, ligaments, cartilage, os, vessie, foie, pancréas, valvules cardiaques, corde dorsale, cornée... 1.

Mouse Control via Webcam Introduction This application uses emguCV, a .NET wrapper for openCV, to perform image processing, through which we try to recognize hand gestures and control mouse using these gestures. In this app, cursor movement is controlled by the movement of hand and click events are triggered using hand gestures. Background I always wanted to have one such handy app to control mouse. Using the code The code uses a well known library for image processing, known as, openCV in the form of emguCV which is a .NET wrapper of it. First of all the application tries to catch a video input device. private void Form1_Load(object sender, EventArgs e) { try { CapWebCam = new Capture(); } catch () { } Application.Idle += ProcessFramAndUpdateGUI; } The processing code is divided into three main parts: Image Filtering to obtain biggest skin colored contour. Filtering to obtain skin colored contour First of all YCbCr filter is applied, with required thresholds to obtain skin colored parts of the image. 1. 2. 3.

Les prothèses du futur - Ouverture posthumaine Web Prothèses - : histoire des prothèses. - : histoire des prothèses. - : prothèse hydrolique - - : prothèses de la main. - : prothèses de la main. - : prothèses de la main. - : prothèses dentaires. - : prothèses dentaires. - : prothèses dentaires. - : x-fingers. Une technologie 3D sans lunettes pour smartphones et tablettes Le chercheur français David Fattal travaille actuellement dans le groupe de nanophotonique des HP Labs de Palo Alto, en Californie. Diplômé de l’École polytechnique (major de promotion) et de l’université Stanford, il est lauréat du prix MIT Technology Review qui vient de lui être décerné en tant que jeune innovateur français de moins de 35 ans. Il compte à son actif une cinquantaine de brevets. © HP, Nature Une technologie 3D sans lunettes pour smartphones et tablettes - 3 Photos Dans une célèbre scène de la saga Star Wars, le robot R2D2 projette un hologramme vidéo de la princesse Leia. Cette technologie, nous la retrouverons peut-être bientôt dans les smartphones, les tablettes tactiles, et pourquoi pas les montres intelligentes. Dans cette vidéo de démonstration, l’affichage en 3D développé par David Fattal et son équipe des HP Labs fonctionne sur un écran de 6 pouces en offrant 64 angles de vue différents en mode RGB (rouge, vert, bleu). David Fattal distingué par le MIT

Demain tous cyborgs ? 1Nous vivons à une époque où l’évolution technologique semble s’accélérer à tel point que certains techno-prophètes y voit la possibilité d’apparition d’une singularité (KURZWEIL, 2005). Celle-ci, à l’instar d’un trou noir, limiterait notre horizon prédictif à seulement quelques années. Dès lors, il s’ensuivrait des changements radicaux de notre environnement et une évolution sans précédent de l’espèce humaine. L’homme deviendrait alors un cyborg, une sorte de créature hybride mi-homme mi-machine. Il pourrait même télécharger son esprit dans un ordinateur, se débarrassant ainsi finalement de toute contrainte organique. 2Il est vrai que le développement convergent des nanotechnologies, des biotechnologies et des cybertechnologies laisse augurer des avancées importantes dans les années futures (HEUDIN, 2008). 1 Cet article reprend en introduction une partie du texte de « Robots & Avatars : retour vers le futu (...) Courtoisie © Universal Pictures Créé par Tezuka Osamu, Collection privée.

Kinect peut assister les chirurgiens pendant les interventions Le torse, la tête et les bras du praticien sont suivis en permanence par le capteur Kinect afin de recueillir des informations contextuelles qui alimentent l’algorithme. Selon les chercheurs, ces données ont permis de réduire de façon très significative le pourcentage de faux positifs. © Université Purdue Kinect peut assister les chirurgiens pendant les interventions - 2 Photos Lors d’une opération chirurgicale, les médecins utilisent couramment l’IRM (imagerie par résonance magnétique). La manipulation de ces images nécessite que le praticien (ou une personne qui l’assiste) accède à l’ordinateur pour afficher les clichés au cours de l’intervention. Une alternative qui est en train de s’imposer repose sur la technologie de détection des mouvements, afin de permettre aux chirurgiens de manipuler l’outil informatique et les contenus dont ils ont besoin par leurs seuls gestes. La main créée par le Kinect dirigée par les gestes Le Kinect reconnaît 97 % des commandes A voir aussi sur Internet

L’esprit aux commandes des fauteuils roulants grâce aux neuroprothèses | Daily Geek Show Restez curieux. Suivez nous ! L’impression est un peu troublante. Sur la photo ci-contre, Michele Tavella dirige un fauteuil roulant par la seule action de sa pensée. « C’est pourtant quelque chose de très simple et naturel, explique le doctorant de l’EPFL. Il a fallu quelques heures de travail pour que son cerveau s’adapte au logiciel et vice-versa : le programme s’adapte également de son coté aux particularités du cerveau de l’exécutant. On image très bien l’utilité de cette technologie pour des personnes handicapées dans l’incapacité de diriger un fauteuil électrique manuellement.

Kinect devient une interface pour Windows Le boîtier Kinect, avec sa caméra, son détecteur infrarouge et ses microphones, voit et entend ce qui se passe autour de lui. Ses logiciels repèrent les êtres humains et peuvent reconnaître les visages. © Microsoft Kinect devient une interface pour Windows - 2 Photos Microsoft a réuni, jusqu’à ce soir, développeurs et journalistes à Las Vegas pour la conférence MIX 11 et a commencé une série d’annonces ou de démonstrations. Comme on s’y attendait, un autre SDK a été présenté : celui qui permet aux développeurs de réaliser des logiciels pour Windows utilisant l’interface « corporelle » Kinect. Avant d'envoyer un mail, ne pas oublier de lécher le timbre (virtuel) et de le coller sur l'enveloppe (virtuelle). Au dernier salon de la réalité virtuelle, Laval Virtual, le boîtier Kinect était d’ailleurs présent sur de nombreux stands pour des applications les plus diverses. A voir aussi sur Internet Sur le même sujet

implants_neuronaux_Goumy Implants neuronaux : vers un contrôle social absolu ? 3 avril 2005, Alain Goumy informaticien, 57 ans, Orléans. Contact : alain.goumy tiscali.fr Grâce à de minuscules électrodes implantées à la surface du cerveau, il est d'ores et déjà possible de commander directement certains appareils par la pensée. BrainGate Les résultats provisoires d'une étude pilote d'utilisation d'un implant neuronal ont été présentés récemment [1]. Ce système, basé sur un implant constitué d'une matrice de 10 fois 10 électrodes, chacune plus fine qu'un cheveu, est destiné à être implanté par un chirurgien à la surface du cerveau, pour recevoir les signaux électriques d'une zone commandant les mouvements (cortex moteur). Depuis sa greffe en juin 2004, le premier patient, un jeune homme paralysé des quatre membres, a appris à allumer ou éteindre l'éclairage, à contrôler sa télévision ou à lire son courrier électronique, uniquement par la pensée. Brown University Les objectifs en sont ainsi décrits :

Un gant capable de reconnaître l’écriture tracée dans le vide À l'image, le processus de reconnaissance d’écriture virtuelle. Les capteurs embarqués dans le gant détectent les mouvements, l’inertie et l’angle de la main (motion sensing with internal sensor). Ensuite, l’algorithme sépare les gestes des mouvements propres à l’écriture (write/no-write segmentation), puis applique le modèle statistique qui décode le geste pour reconnaître les lettres et les mots (HMM decoding + language model) et enfin produire le résultat (Final hypothesis). © Institut de technologie de Karlsruhe Un gant capable de reconnaître l’écriture tracée dans le vide - 2 Photos Après l’air guitar, bientôt l’air writing ? Rédiger un texto ou un courriel dans le vide et voir les mots apparaître sur l’écran de son ordinateur, de sa tablette ou de son smartphone, voilà ce que l’on pourrait faire dans un avenir pas si lointain grâce aux vêtements intelligents. Le gant mis au point par les chercheurs de l’Institut de technologie de Karlsruhe. A voir aussi sur Internet

Neuroprothèse : des singes paralysés remarchent grâce à un implant dans le cerveau (MAJ) Une interface cerveau-moelle épinière permet à un singe qui a eu une lésion de la moelle épinière de retrouver l'usage d'un membre inférieur paralysé. Cette neuroprothèse qui court-circuite la lésion est également testée chez l'Homme dans un essai clinique à l'hôpital universitaire de Lausanne. Le 23 juin 2015, un premier singe macaque porteur d'une lésion de la moelle épinière a pu retrouver le contrôle d'un membre inférieur paralysé, et donc remarcher, grâce à une neuroprothèse appelée « interface cerveau-machine » court-circuitant la lésion. Cette interface cerveau-machine enregistre l'activité cérébrale liée à l'intention de marche, la décode, et transmet cette information à la moelle épinière sous la lésion. Cette neuroprothèse a été conçue à l'EPFL (Lausanne, Suisse) et techniquement développée par un groupe international composé de Medtronic (États-Unis), l'université Brown (États-Unis) et le Fraunhofer ICT-IMM (Mayence, Allemagne). Mais cela n'est pas naturel.

Related: