background preloader

LSF

LSF

Langue des signes Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Signe. Lettre V en langue des signes. La langue des signes désigne l'une ou l'autre des langues gestuelles (produites par les mouvements des mains, du visage et du corps dans son ensemble) que les personnes atteintes de surdité ont développées pour communiquer. Elle assure toutes les fonctions remplies par les langues orales. Histoire[modifier | modifier le code] Séméiologie[modifier | modifier le code] Si la langue des signes est enseignée et diffusée, elle est conçue en tant que « reproduction » d'une langue qu'elle visualise et gestualise. Comme toute langue, une langue des signes nécessite un apprentissage mais il n'est pas nécessaire d'avoir une surdité pour apprendre ou communiquer en langue des signes. On parle souvent quand on traite de la langue des signes d'une « pensée visuelle ». Code gestuel[modifier | modifier le code] Prosodie illustrative[modifier | modifier le code] Art.

Alphabet dactylologique Un article de Wikipédia, l'encyclopédie libre. Un alphabet unimanuel publié dans the American Annals of the Deaf and Dumb, 1886. En langue des signes française (LSF), il s'effectue avec la main droite pour les droitiers et la main gauche pour les gauchers. Ces codes alternatifs ne font pas partie de la structure interne d'une langue des signes naturelle et ne sont pas nécessaires dans une conversation entre locuteurs d'une langue des signes appartenant à la même communauté. Historique[modifier | modifier le code] L'alphabet de la langue des signes française (LSF) a été, sinon inventé, du moins propagé par Charles-Michel de L'Épée au XVIIIe siècle. Composition[modifier | modifier le code] L'alphabet de la LSF, de l'ASL et de la LSQ sont composés de vingt-six signes plus ou moins arbitraires pour les lettres de l'alphabet, mais dont la majorité évoque la graphie de l'alphabet latin. Alphabet de la LSF[modifier | modifier le code] Pour ces images, il s'agit d'un signeur droitier.

Lunettes avec sous-titre : enfin le cinéma pour les sourds ? Un sous-titrage qui défile dans des lunettes. C'est la prouesse que réalise Sony Digital cinéma avec son tout nouveau système de « lunettes sous-titres » destinées aux cinéphiles sourds ou malentendants. Le principe est simple à définir, nettement plus complexe à concevoir. Confortablement installé dans votre fauteuil, à n'importe quelle séance, vous chaussez cette paire de lunettes, comme vous le feriez pour une projection en 3D. Reliée à un petit boitier, lui-même connecté à un émetteur placé en régie, elles affichent un texte dans le champ de vision du spectateur (à la différence d'autres technologies qui obligent à alterner entre un écran séparé et celui de la salle). En 6 langues et en 3D Ce texte est en réalité une image holographique, lumineuse, de couleur verte, réputée être la plus perceptible par l'œil humain. Les bémols de la nouveauté Ce procédé inédit a été lancé officiellement en Europe le 5 février 2013, au sein du Gaumont-Pathé Opéra, à Paris. Verdict après 90 minutes !

Petit cours de novlangue Connaissez-vous la novlangue? Il s’agit d’une langue inventée par Georges Orwell dans le roman 1984 qui bizarrement, n’a jamais été adapté au cinéma en tant que super-production alors que le roman l’aurait largement mérité, tout juste un téléfilm très mauvais et mal joué….mais c’est une opinion toute personnelle…Un sujet sur le forum abordait déjà ce sujet mais de manière si succincte qu’un rappel plus complet est utile. Par extension, on peut dire que ce langage est très utilisé par les politiciens en général qui peuvent ainsi nous raconter n’importe quoi tout en nous faisant croire que ce qu’ils disent est très intéressant (ou pas…), et qui permet également de nous dire quelque chose tout en signifiant réellement le contraire, cela sans être explicite (ça va? Pas trop dur à suivre?). Maintenant je vous propose un petit dictionnaire de novlangue et vous allez découvrir que cette technique est beaucoup utilisée par nos politiciens.

Microsoft Is Teaching Kinect to Understand Sign Language Microsoft researchers are working on ways to use the Kinect's body-reading capabilities to understand sign language inputs. Microsoft Research Asia and the Chinese Academy of Sciences' Institute of Computing Technology has collaborated to use the Kinect to help with computer sign-language recognition. As shown in the video above, they've demonstrated the Microsoft Kinect's ability to translate signs by tracking hand and body actions. Microsoft Research says in "translation mode" the Kinect can translate sign language into text or speech. Both isolated word recognition and continuous sentence recognition were tested. It all works through a process Microsoft Research refers to as "3D trajectory matching:" Kinect for Windows software helps decipher the hand movements, which are then matched to identify a word. This Kinect research initiative could bring improved and more natural accessibility options for those who primarily communicate with sign language. Image: Microsoft Research Asia

Related: