background preloader

Accessibility at Google

Accessibility at Google
Related:  Accessibility / Disability

Nuance Mobile Developer Program: Dragon Mobile SDK Automatic captions on YouTube Posted by Pablo Chavez, Managing Policy Counsel UPDATE 11/24/09: Full-length video of our announcement event in Washington, D.C. has been posted to YouTube and is embedded at the bottom of this blog post. We have included English captions using our new auto-timing feature. Enjoy. Today, here in D.C., we announced the preliminary roll-out of automatic captioning in YouTube, an innovation that takes advantage of our speech recognition technology to turn the spoken word into text captions. This is useful for anyone who is deaf or hearing impaired, but it will have broader effects as well. Indeed, with 20 hours of video uploaded to YouTube every minute, captioning YouTube through purely manual means would be very difficult. Visit our Picasa photo album for more pictures from the event. Have a look at the video below to learn more about what was announced today, and check back here tomorrow for full video from the event.

Le langage des signes ouvre l'ordinateur Les universités de Leeds et d'Oxford veulent rendre une machine capable de lier un mot à son équivalent en langue des signes. Une telle initiative facilitera le développement de logiciels de robotique réceptifs à ce qui les entoure. L'ordinateur peut-il apprendre une langue de manière autonome ? Une équipe de chercheurs anglais* a réussi à démontrer que oui, en se fondant sur celle des signes. Comme ils l'expliquent dans leur étude, leur objectif était que la machine soit capable de lier automatiquement un mot de la langue anglaise à une séquence vidéo montrant le signe associé. Pour ce faire, ils ont mis au point un logiciel qui traque la position et les mouvements de la tête, des mains et des bras des présentateurs des émissions qu'ils lui ont soumis.

vous Pierre Denis from Paris ? Le 2.0 pourrait re-socialiser les 8 millions d'aidants en France AidantAttitude from Jean Michel Billaut on Vimeo. Pierre a mis en oeuvre une plateforme : aidantattitude... De quoi s'agit-il ? C'est une structure juridique bénévole, qui est un fonds de dotation (qui peut recevoir des dons d'entreprises et bientôt de particuliers - avec à la clef des réductions fiscales).. Il y a en France quelques millions de personnes en grande dépendance, en perte d'autonomie. Pierre nous explique d'abord pourquoi il a mis en place cette plateforme... Comment Pierre recherche ses mécènes ? Bref, il y a un manque de coordination entre aidants qui sont dans les différentes sphères de l'aide... Par ailleurs, les forums d'aidants prennnent de plus en plus d'ampleur... Quels sont les "concurrents" ? Comment Pierre voit-il l'avenir... ? Commentaires au débotté... Il va y avoir des robots de services, et donc aussi des robots ouvriers. Demain on va faire un peu d'histoire récente... Pour contacter Pierre Denis : contact(arobase)aidantattitude.fr

Un moteur pour indexer et identifier les extraits vidéo sur Inte En analysant les caractéristiques audiovisuelles de vidéos trouvées sur le web, il est possible de les identifier. Un concept prometteur pour les publicitaires et les sociétés de production. Les fournisseurs de contenu vidéo sont confrontés à deux problèmes pour indexer leur contenu. D’une part, effectué à la main, le « tagging », processus qui affecte à chaque vidéo des attributs sur lesquels les recherches peuvent ensuite s’appuyer, est long et très coûteux quand cela concerne des milliers d’extraits.

tél portable peine à s'adapter aux malentendants Un mobile adapté aux personnes qui entendent mal doit embarquer des fonctions texte performantes. Mais surtout, ils doivent être compatibles avec les appareils auditifs. Ce qui n'est pas souvent le cas. Il est toujours aussi difficile pour les malentendants d'accéder rapidement à l'offre de mobile qui leur convient, rappelle l'institut Wireless RERC dans une étude. Ce, notamment en raison de problèmes de compatibilité entre le combiné et les appareils auditifs, qui créent des interférences. Pourtant le régulateur américain, la FCC (Federal Communications Commission), a adopté en 2003 des réglementations envers les constructeurs pour qu'ils rendent les téléphones mobiles compatibles avec ces solutions auditives.

Speech to text conversion in Linux Sur Internet, une information recherchée est une information ret L'internaute qui navigue en ayant une idée précise de ce qu'il cherche non seulement se souviendra mieux du contenu, mais y sera aussi plus sensible émotionnellement que s'il est tombé dessus de manière aléatoire. Les internautes sont plus capables de comprendre, se souvenir et répondre émotionnellement aux contenus lus lors d'une recherche sur un moteur plutôt que ceux trouvés en surfant de manière plus aléatoire. Voilà ce qu'a constaté une équipe de l'université du Missouri. Pour arriver à de telles conclusions, les chercheurs ont proposé à une centaine de personnes de lire des articles au contenu considéré comme peu agréable sur le web. La moitié d'entre elles a accédé à ce contenu après une recherche sur un moteur : elles ont dû retrouver le site sur lequel était publié chaque article. L'autre moitié disposait déjà de cette information et a lu les textes en navigant simplement sur le site web.

Broadcast Yourself. Add multiple captions or subtitle tracks to your videos The Caption feature allows you to give viewers a deeper understanding of your video. Adding captions and subtitles makes your videos more accessible to people who can't follow along with the audio—either because they speak a different language, or because they are deaf or hard of hearing. How do I get started? You can add captions to one of your videos by uploading a closed caption file using the "Captions and Subtitles" menu on the editing page. How can I see the captions on a video? You can search for videos with captions by choosing "Type: Closed Captions" in YouTube Search. Videos with captions display this small logo at the bottom of the player: If a video includes captions, you can activate them by clicking the menu button located on the bottom right of the video player. Click here! How can I translate the captions on a video? If captions are available, but not in a language you prefer, you can try the machine translation feature.

Sphinx speech to text - Metavid Sphinx is a speech recognition system that is being developed at Carnegie Mellon University. OpenGov is using sphinx3 primarily, which works under GNU/Linux. CMU has released: sphinx2 (slightly faster, but less accurate) sphinx3 (slower but more accurate) sphinx4 (java) pocketsphinx Sphinx webpage If you are new to speech recognition, there are three main steps involved in creating a useful system. You need: An appropriate language model (just text, nothing to do with sound) An appropriate dictionary for the language model An appropriate acoustic model You should usually create your own language model based on text transcriptions relating to the people whose voices you want to recognize. You should have a dictionary that contains pronunciations of all words that you want to recognize, making sure to add pronunciations that are unique to your subjects. You should choose an acoustic model, and adapt it based on *accurate* transcriptions and audio files spoken by your subjects. Tutorials:

L'antémémoire s'ouvre aux données complexes Des chercheurs croates proposent une alternative au programme de gestion du cache le plus utilisé. Elle permettra de supprimer les données sensibles sans perdre l'ensemble des informations stockées. La plupart des sites web génériques s’appuient sur l’antémémoire pour améliorer leur performance. Le programme de mémoire cache le plus utilisé étant Memcached, si l'on en croit un groupe de chercheurs de l’université de Zagreb. Ceux-ci en pointent les lacunes en termes de flexibilité et proposent une nouvelle solution.

Quand le mobile s'adapte aux malentendants Le Fraunhofer propose un système embarqué dans le téléphone et qui permet aux utilisateurs de moduler les fréquences des appels reçus. Une option diminue aussi automatiquement les bruits provoqués par l'environnement. Pour faciliter l'usage du téléphone portable aux personnes souffrant de problèmes d'audition, l'institut des technologies numériques (IDMT) du Fraunhofer travaille sur un système directement intégré aux combinés. Celui-ci, développé dans le cadre du projet Speech-Improved Telephony, sépare les signaux sonores en plusieurs fréquences que l'individu peut ajuster en fonction de ses besoins.

Sphinx From Sourceforge: Sphinx is a speaker-independent large vocabulary continuous speech recognizer under Berkeley's style license. It is also a collection of open source tools and resources that allows researchers and developers to build speech recognition system. Sphinx project pages The CMU Sphinx Group Open Source Speech Recognition EnginesSphinx Sourceforge Project CMU Sphinx: Open Source Speech Recognition Sphinx and Asterisk A detailed example and code(link mirror) for a client/server approach. There are also some discussions to be found on the Asterisk-Users list for example here. Quote by Stephan A. It is fairly easy to integrate Asterisk with Sphinx, the only trouble is that youneed to have an Acoustic Model (AM) for 8KHz, which are not (yet) readily available. There is a Language Model (LM) and AM included with Sphinx, but it is designed for a sampling rate of 16KHz andtherefore does not work with Asterisk. Example - sphinx.agi See also

Searchwiki : un moteur pour médias sociaux L'éditeur américain propose un moteur de recherche interactif pour rechercher des informations en provenance des blogs et des outils issus du web 2.0 Twitter propose déjà son moteur de recherche interne et Google pouvait déjà indexer les flux issus de Twitter. Avec Searchwiki, cela va plus loin. Ce service propose un moteur de recherche qui récupère les informations sur les réseaux sociaux comme Facebook, MySpace, Hi5 et Twitter. Cela permet de générer des résultats autres que ceux proposés par Google ou Yahoo. Le site analyse aussi les photos et les vidéos postées sur les blogs.

Related: