background preloader

Le « machine learning » – quand les données remplacent les algorithmes

Le « machine learning » – quand les données remplacent les algorithmes
Qu'est ce que le "machine learning" (apprentissage automatique) ? Pourquoi ce domaine est-il aujourd'hui en plein essor, quelles sont ses principaux domaines d'applications ? Quelles sont les principales stratégies utilisées dans le domaine de l'analyse prédictive ? Quels sont les prérequis pour se former à cette discipline prometteuse. Les algorithmes bientôt obsolètes ? D’ici quelques mois, le centre de cancérologie Memorial Sloan Kettering à New York va recruter un jeune spécialiste en diagnostic médical d’un type un peu particulier : non pas un brillant docteur en génétique mais une intelligence artificielle (IA) développée par IBM et qui répond au nom de Watson. L’exemple précédent, qui fait entrer la médecine dans une ère nouvelle, est une application d’un domaine de recherche aujourd’hui en plein essor : le « machine learning » (ML ou « apprentissage automatique »). Les capacités de traitements massivement parallèles ont de ce point de vue changé la donne depuis quelques années.

Comment l'IA donne des yeux aux machines | Microsoft experiences « Vu ce que l’on peut faire avec des données clas­siques, imaginez le potentiel des images ». En quelques mot Sihame Aaarab, data scientist au sein de Microsoft France, résume les attentes que suscite l’intelligence arti­fi­cielle appliquée aux images. Bonne nouvelle : la démo­cra­ti­sa­tion de l’IA est une réalité et il existe déjà de nombreux moyens de concré­ti­ser son potentiel. Aux côtés de Aleksander Callebat, également data scientist chez Microsoft France, Sihame Aaarab a profité de l’édition 2017 de Microsoft Experiences pour illustrer les outils dis­po­nibles, avec ou sans développement. À l’appui de leur visite guidée, l’Intelligent Kiosk qui propose plusieurs scénarios tirant parti des services cognitifs de Microsoft. De quoi se fami­lia­ri­ser avec les capacités de ces services, de la recon­nais­sance de l’âge d’une personne à des fonctions évoluées telle que la recon­nais­sance des émotions. Testez Azure gratuitement Démarrer gra­tui­te­ment >

Un robot DJ pour remplacer l'humain DJ Kuka doit encore évoluer s’il compte un jour remplacer définitivement les humains derrière les platines. Le Karlovy Lazne, énorme discothèque sur 5 étages très courue des touristes de la capitale de la République tchèque, fait le buzz depuis qu’elle a engagé un robot pour mettre de la musique sur l’un de ses dancefloors. Baptisé DJ Kuka, le robot en question est un bras articulé coiffé d’une pince, comme on en trouve dans les usines de montage automobile. Il a été programmé pour saisir des CD dans une étagère et les passer. DJ Kuka mixe, mais «danse» également. Ces critiques, Adam Lipsansky, directeur du Karlovy Lazne à Prague, les entend mais ne s’en soucie pas. (Source : 20 Minutes) mettre le son en bas à droite ⇓ WordPress: J'aime chargement…

How Uber is using driver selfies to enhance security, powered by Microsoft Cognitive Services – Transform Real-Time ID Check is also incredibly fast – with the verification done in milliseconds. “We have tens of thousands of driver-partners going online every hour across the world, and for us, the API’s response times were extremely important,” says Kovalev. This feature builds an additional layer of security onto what’s already built into the app. Once passengers request a ride via Uber’s mobile app, Uber sends the rider information about the driver coming to pick them up, including the driver’s name, photo, car make and model, as well as the car’s license plate number. When the car arrives, riders can compare this information with the vehicle and driver they see before them to ensure they’re getting into their Uber. Real-Time ID Check prompts drivers to share a selfie before going online to help ensure the driver using the app matches the account that Uber has on file. Among the things Uber learned from testing: “Taking a selfie at night is really, really hard,” says Kovalev.

Un Rubik's cube... en 0,38 seconde 0,38 seconde pour résoudre un Rubik's cube (le modèle classique, de 3x3 rangées). C'est à peine plus qu'un clin d'œil, et pourtant cela suffit à ce robot pour résoudre le célèbre casse-tête tridimensionnel inventé par Ernő Rubik. Une performance qui améliore de 40% le précédent record pourtant déjà impressionnant : 0,637 seconde à peine ! Minimiser le temps de réaction des pièces mécaniques À titre de comparaison, le dernier record humain, établi le 8 octobre 2017, s'élève à 4,591 secondes. Le choix des moteurs s'est ainsi avéré déterminant, relate (en anglais) Jared Di Carlo sur son blog. OPEN SOURCE. L'incroyable performance de la machine, vitesse normale puis vitesse réduite Photographie du dispositif. Un cube spécial pour limiter les forces de frottements Reste un problème : les forces de frottements. Certains cubes n'ont pas résisté à la manipulation par la machine véloce 0,38 seconde pour résoudre un Rubik's cube (le modèle classique, de 3x3 rangées). OPEN SOURCE.

L’Arabie Saoudite vient d’accorder la citoyenneté à un robot À l’occasion de l’événement Future Investment Initiative qui s’est déroulé à Riyad du 24 au 26 octobre, un robot humanoïde baptisé “Sophia” a acquis la citoyenneté saoudienne. “L’Arabie Saoudite vient de rendre une ‘femme’ non humaine citoyenne saoudienne, ce qui en fait le premier pays, du moins à notre connaissance, à accorder la citoyenneté à un robot”, révèle le site TechCrunch. On en sait cependant peu sur les droits que cela lui confère. Mais “beaucoup ont souligné que le robot avait sûrement plus de droits que de nombreux humains dans le pays”, croit savoir The Independent. Baptisé “Sophia”, ce robot fabriqué par la société Hanson Robotics a acquis cette nationalité lors du sommet Future Investment Initiative, qui s’est déroulé dans la capitale du royaume du 24 au 26 octobre, et dont le but est de faire de l’Arabie Saoudite “un pôle d’investissement mondial reliant trois continents”, précise le site de l’événement. “Il n’y a pas de quoi s’inquiéter”

Un métal liquide robotique Plus la science progresse, plus les films de science-fiction semblent se rapprocher de la réalité. C’est bien le cas de la saga Terminator, qui représentait dès 1991 le robot T-1000, soit le robot le plus puissant jamais conçu, fait d’un métal liquide capable de résister à tout élément et de se métamorphoser en chaque personne qu’il a tuée, et destiné à mettre fin à la vie de John Connor. Des chercheurs de l’université Tsinghua à Pékin ont réussi à concevoir un alliage de métaux, liquide à température ambiante et flottant sur l’eau. Il peut se déformer et on peut le modeler comme on le souhaite. Le résultat du travail de ces chercheurs a été publié dans la revue Advanced Functional Materials. Lire aussi Comment cette intelligence artificielle a-t-elle appris à jouer avec les mots ? Cet alliage de métaux liquide à température ambiante a de nombreux atouts. Lire aussi Cette nouvelle IA prédit l’espérance de vie des patients souffrant d’insuffisance cardiaque

Researchers watch video images people are seeing, decoded from their fMRI brain scans in near-real-time Purdue Engineering researchers have developed a system that can show what people are seeing in real-world videos, decoded from their fMRI brain scans — an advanced new form of “mind-reading” technology that could lead to new insights in brain function and to advanced AI systems. The research builds on previous pioneering research at UC Berkeley’s Gallant Lab, which created a computer program in 2011 that translated fMRI brain-wave patterns into images that loosely mirrored a series of images being viewed. The new system also decodes moving images that subjects see in videos and does it in near-real-time. Deep-learning AI system for watching what the brain sees Watching in near-real-time what the brain sees. The researchers acquired 11.5 hours of fMRI data from each of three women subjects watching 972 video clips, including clips showing people or animals in action and nature scenes. Reconstruction of a dynamic visual experience in the experiment. Decoding how the visual cortex works

CIMON-2, IA de l'ISS Arrivé cette semaine dans la station spatiale internationale (ISS) lors de la mission de réapprovisionnement « Falcon », CIMON-2 va aider les astronautes dans leurs tâches quotidiennes, mais aussi mettre un peu de bonne humeur. Les blagues échangées entre TARS et Cooper dans Interstellar ne sont plus très loin. Conçue par Airbus, DLR et IBM, cette intelligence artificielle capable d’aider les astronautes est en réalité le successeur de CIMON-1, qui a été déployé dans l’ISS au début de l’année 2018. Comme le personnage (le cerveau vivant du scientifique se trouve dans un boitier transparent), CIMON-2 est un robot doté d’une intelligence artificielle, d’une voix et d’un écran tactile. L’ISS sera ouverte aux touristes dès 2020 Comme c’est déjà le cas dans certains hôpitaux américains, CIMON-2 peut se déplacer dans l’ISS pour aller chercher des objets à la demande des astronautes. Int-Ball, l’autre robot mignon de l’ISS Source : DigitalTrends

Automatic image retouching on your phone The data captured by today’s digital cameras is often treated as the raw material of a final image. Before uploading pictures to social networking sites, even casual cellphone photographers might spend a minute or two balancing color and tuning contrast, with one of the many popular image-processing programs now available. This week at Siggraph, the premier digital graphics conference, researchers from MIT’s Computer Science and Artificial Intelligence Laboratory and Google are presenting a new system that can automatically retouch images in the style of a professional photographer. It’s so energy-efficient, however, that it can run on a cellphone, and it’s so fast that it can display retouched images in real-time, so that the photographer can see the final version of the image while still framing the shot. The same system can also speed up existing image-processing algorithms. Short cuts Taking bearings

La photo dopée à l’intelligence artificielle Un mode « automatique » inspiré par des réglages de professionnels, un outil de retouche automatique qui copie les experts… Les réseaux neuronaux pourraient nous aider à améliorer nos photos. Après avoir amélioré les performances des traducteurs automatiques, les « réseaux neuronaux artificiels » ambitionnent de secouer le petit monde de la photo. Les appareils photo reflex sont tapissés de boutons. Intimidés, beaucoup d’apprentis photographes se rabattent sur le mode « tout auto », symbolisé par un petit cran vert. L’appareil choisit alors les réglages, il n’y a plus qu’à cadrer, et à déclencher. Malheureusement, en mode « tout auto », les photos sont souvent banales. La start-up Arsenal veut remplacer ce réglage automatique par un mode qu’on pourrait qualifier de « tout intelligent ». Les neurones artificiels d’Arsenal ont appris à déchiffrer les photos. Au moment de photographier une image, Arsenal est donc capable de l’analyser. Cela soulève de nombreuses questions.

Новый макияж короля – Telegraph В конце прошлого года мне внезапно очень надоел хайп, вокруг систем распознавания лиц. Системы эти используются разными людьми в разных целях, а количество камер, которые фиксируют ваши лица стремительно растет. Особенно меня восхитило, насколько кучно покрыта камерами Москва - кажется в пределах МКАД уже нельзя пройти и сотни метров, чтобы не попасть в объектив камеры. Я не параноик (вроде бы), но сам факт, что кто-то может проследить все мои перемещения раздражает. И тогда у нашего небольшого коллектива (нет, не в Яндексе, совершенно отдельно) появилась свеженькая идея - а почему бы не построить алгоритм, который позволяет противодействовать если не слежке, то хотя бы идентификации человека в кадре. Довольно быстро был написан не очень сложный, но эффективный генетический алгоритм, который получал на входе фотографию, а потом итеративно сравнивал ее с оригиналом, добиваясь максимального анти-сходства.

Kinovea Past visions penned by Frederick William IV Haftungsausschluss Eine Haftung für die Richtigkeit, Vollständigkeit und Aktualität dieser Webseiten kann trotz sorgfältiger Prüfung nicht übernommen werden. Die Fachhochschule Potsdam übernimmt insbesondere keine Haftung für eventuelle Schäden oder Konsequenzen, die durch eine direkte oder indirekte Nutzung der angebotenen Inhalte entstehen. Es wird ausdrücklich darauf hingewiesen, dass für den Inhalt verlinkter Seiten ausschließlich deren Betreiber verantwortlich ist. Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Sollten Sie Kenntnis von verlinkten Seiten mit rechtswidrigen Inhalten erlangen, bitten wir Sie, uns dies mitzuteilen. Urheberrecht Alle im Internetangebot der Fachhochschule Potsdam veröffentlichten Inhalte (Layout, Texte, Bilder, Grafiken usw.) unterliegen dem Urheberrecht. Wir erlauben ausdrücklich und begrüßen das Zitieren unserer Dokumente und Webseiten sowie das Setzen von Links auf unsere Website. Hausanschrift

Next Big Test for AI: Making Sense of the World - MIT Technology Review A few years ago, a breakthrough in machine learning suddenly enabled computers to recognize objects shown in photographs with unprecedented—almost spooky—accuracy. The question now is whether machines can make another leap, by learning to make sense of what’s actually going on in such images. A new image database, called Visual Genome, could push computers toward this goal, and help gauge the progress of computers attempting to better understand the real world. Visual Genome was developed by Fei-Fei Li, a professor who specializes in computer vision and who directs the Stanford Artificial Intelligence Lab, together with several colleagues. Li and colleagues previously created ImageNet, a database containing more than a million images tagged according to their contents. In 2012, a team led by Geoffrey Hinton at the University of Toronto built a large and powerful neural network that could categorize images far more accurately than anything created previously.

Related: