background preloader

Vexrris

Facebook Twitter

Voiture autonome : Actualités, informations, photos et vidéos. La voiture autonome. Percée juridique importante pour la voiture autonome de Google. La voiture autonome pourrait bientôt avoir la même définition légale qu’un conducteur humain aux États-Unis, ce qui représenterait une importante victoire notamment pour Google. La National Highway Traffic Safety Administration, soit l’agence fédérale américaine responsable de la sécurité routière, a partagé ses réflexions au sujet de la voiture autonome en publiant cette semaine une lettre à l’attention de Google. «Si aucun être humain à bord du véhicule ne peut conduire le véhicule, il serait plutôt raisonnable d’identifier le conducteur comme étant quoi que ce soit (par opposition à qui que ce soit) effectuant la conduite du véhicule.»

Soulignons que pour le moment aux États-Unis, seuls quatre états (en plus de Washington DC) autorisent la circulation de voiture autonome sur leurs routes – la Californie, la Floride, le Nevada et le Michigan – à condition qu’un être humain à bord puisse reprendre le contrôle du véhicule en tout temps. Mais cette exigence pourrait bientôt être levée. Why cities aren’t ready for the driverless car. When it comes to adopting self-driving cars and trucks, the easiest part may well be building them.

The far more difficult task will be maintaining our urban transportation infrastructures for autonomous vehicles to be functional, safe and practical. Consider that last year, a modified Audi completed a 3,400-mile cross-country trip, driving itself 99% of the time. The 1% of roadway the car couldn’t navigate on its own: construction zones and other complicated traffic situations — hallmarks of urban traffic. What will cities have to do to get ready for the transition to the autonomous car?

Local practices Traffic rules may be writ in stone, but the autonomous car or truck should also understand local practice. Driverless cars can be programmed to be aggressive or patient. The duration of a yellow light will be programmed, as it is now, down to a fraction of a second. New responsibilities These are issues that must be resolved before autonomous vehicles are turned loose on the asphalt. Group calls on U.S. to speed up favorable regulations for autonomous cars. Uber travaille sur une voiture autonome.

C’est avec Ford qu’Uber travaille sur son projet de voiture autonome. Cette Fusion est équipée d’une batterie de radars, caméras haute résolution et lidar afin de cartographier son environnement et de détecter les obstacles. © Uber Uber travaille sur une voiture autonome - 2 Photos Uber va-t-il se séparer de ses chauffeurs dans quelques années ? En tout cas, l’entreprise a dévoilé son prototype de voiture autonome. Celui-ci sera testé d’ici quelques semaines à Pittsburgh, en Pennsylvanie. Et de prime abord, l’annonce a de quoi surprendre pour une plateforme qui propose des voitures de transport avec chauffeur (VTC). Comme l’indique ce tweet de Benjamin Ferran, journaliste au Figaro, Uber ne dit pas quel avenir l’entreprise réserve à ses chauffeurs.

Mais à terme, les chauffeurs humains devraient disparaître de la plateforme. D’ici quelques années, ce sympathique chauffeur Uber sera peut-être remplacé par un écran d’ordinateur… © Uber À voir aussi sur Internet Sur le même sujet. The Automotive Supercomputer. What will soon be one of the most sophisticated robots around? Your trusty automobile. While there won’t be a bipedal robot replacing the human driver, the car itself will be the robot, sporting more sensors and software to provide a safe driving experience.

Though expected for self-driving cars, this technology is also finding its way into the more conventional vehicles of today and tomorrow. It will help provide a safer driving environment even when a person is driving the vehicle. Research on self-driving cars and augmented driving is going on everywhere, at companies ranging from Google to Ford (Fig. 1). Toyota is dropping $1 billion over five years to help foster artificial intelligence (AI) research for self-driving cars. 1. Robotic cars will not have a pair of Mark 1 eyeballs. Sensors are not the only way cars will be getting information about their environment. Advanced Environmental Awareness 2. This is where SLAM comes into play. Infrastructure Awareness 3.

Automotive Processing. Drive.ai, la pépite californienne qui accélère (incognito) dans les véhicules autonomes. Basée à Mountain View, la start-up Drive.ai, issue de recherches menées au laboratoire d'intelligence artificielle de Stanford, entend déployer massivement les algorithmes de Deep Learning dans les véhicules autonomes. Elle vient de recevoir l'autorisation d'effectuer des tests sur les routes publiques de Californie. Objectif : entraîner et améliorer son intelligence artificielle. La start-up californienne Drive.ai est sortie de l’ombre le 22 avril dernier. Date à laquelle le Wall Street Journal a révélé que la jeune pousse, basée à Mountain View, venait de recevoir l’autorisation de tester des voitures autonomes sur les routes publiques de Californie. Drive.ai est ainsi la 13e entreprise à avoir décroché ce laissez-passer, à côté de mastodontes comme son voisin Alphabet. Entraîner le "cerveau" de la voiture « Drive.ai est une entreprise de deep learning », expliquent ses fondateurs dans une interview accordée au magazine IEEE Spectrum.

Une levée de fonds de 12 millions de dollars. What counts as artificially intelligent? AI and deep learning, explained. Tech companies have partly encouraged this elision of artificial intelligence and sci-fi AI (especially with their anthropomorphic digital assistants), but it’s not useful when it comes to understanding what our computers are doing that's new and exciting. With that in mind, this primer aims to explain some of the most commonly used terms in consumer applications of artificial intelligence — as well as looking at the limitations of our current technology, and why we shouldn’t be worrying about the robot uprising just yet. A robot in DARPA's robotics challenge struggles with a door. (Image credit: IEEE Spectrum / DARPA) What do ‘neural network,’ ‘machine learning,’ and ‘deep learning’ actually mean? These are the three terms you’re most likely to have heard lately, and, to be as simple as possible, we can think of them in layers.

Neural networks are at the bottom — they're a type of computer architecture onto which artificial intelligence is built. For the most part, yes. Well, not quite. Le deep learning, nouvelle arme secrète du Pentagone pour vaincre Daech. Caméras intelligentes, big data... des technologies au service de la lutte contre le terrorisme. Un robot d'usine qui apprend son métier en 8 heures | Actualité Houssenia Writing. Comment la Google Car utilise le « deep learning » DreamUp Vision veut prévenir la cécité grâce au Deep Learning. Les algorithmes de deep learning n’intéressent pas uniquement les industriels friands de cette nouvelle technologie pour la maintenance prédictive, la logistique, la robotique ou encore le développement des véhicules autonomes.

Ces algorithmes d’intelligence artificielle trouvent aussi des applications dans le monde de la santé. La start-up DreamUp Vision le prouve. « Les technologies de deep learning constituent un véritable outil d’aide au diagnostic pour les médecins et les biologistes » explique Ekaterina Besse, sa fondatrice, que nous avons rencontrée à l’occasion du salon Big Data, qui se tenait les 7 et 8 mars au Palais des congrès de Paris. Incubée à l’Institut de la vision, la jeune pousse issue des activités de l’entreprise DreamQuark, a développé un algorithme de deep learning capable de détecter de manière précoce la rétinopathie diabétique. « Il s’agit de la principale cause de cécité au sein de la population active », rappelle la jeune entrepreneure.

Letemps. Jürgen Schmidhuber est l'un des papes de l'intelligence artificielle. Professeur au Swiss AI Lab IDSIA, l’Institut Dalle Molle d’intelligence artificielle à l’Université de la Suisse italienne (USI et SUPSI), il a notamment eu dans son équipe deux des quatre co-fondateurs de la société DeepMind, créée à Londres en 2010, puis rachetée par le géant Google, et qui vient de mettre au point un logiciel du jeu de Go extrêmement performant, capable de battre les champions de la discipline. Ce système est composé de «réseaux profonds de neurones artificiels». Explications. - Réseau de neurones artificiels, «deep learning»: de quoi s’agit-il? - Dans notre cerveau, quelque 10 milliards de neurones traitent les informations entrantes et lancent des actions (output). Chacune de ces cellules nerveuses est liée à 10000 autres, par des connections plus ou moins fortes, qui se renforcent et s’affaiblissent encore à travers l’apprentissage. Lire aussi: Le jour où les robots penseront.

15 examples of artificial intelligence in marketing. Artificial intelligence (see the Wikipedia definition), specifically machine learning, is an increasingly integral part of many industries, including marketing. Here are a whole bunch of case studies and use cases, as a complete primer for AI in our industry. 1. Recommendations/content curation Predictive analytics allows Netflix to surface and finesse recommendations.

Uniting information from diverse datasets is a common use of AI. Under Armour is one of the many companies to have worked with IBM's Watson. The result is the ability for the brand to offer up relevant (personalized) training and lifecycle advice based on aggregated wisdom. IBM explained as follows in a press release: A 32-year-old woman who is training for a 5km race could use the app to create a personalized training and meal plan based on her size, goals, lifestyle.The app could map routes near her home/office, taking into account the weather and time of day. 2. Andrew Howlett, CTO of Rain Agency, told AdWeek: 3. 4. 5. 6.

PlaNet : un algorithme capable de déterminer l'endroit où une photo a été prise. Google et ses puissants outils de deep learning travaillent, en collaboration avec une université d'Aix-la-Chapelle, à une tâche extrêmement difficile : déterminer où une photo a été prise, seulement en analysant celle-ci. Une recherche qui est décrite dans ce document. Google a commencé par déterminer dans quels endroits du monde, la probabilité qu'une photo y soit prise est élevée. Ceci définit une zone qui a été subdivisée en 26 000 carrés. Après quoi, des millions de photos dont la géolocalisation est certaine ont été soumises au système et affectées à une zone. Le système se sert de cette base de données, lorsqu'on lui soumet une nouvelle photo. A en croire Google, il ferait déjà mieux que les humains. Contextual Deep Learning Makes Artificial Intelligence More Real : Tech. Tech Contextual deep learning allows artificial intelligence machines to react in a more natural and intelligent way to the real-world auditory, visual or other type of data.

According to Tech Spot, the concept of having a machine capable of reacting in an intelligent way has been until very recently a matter of science fiction. However, this concept is certainly very compelling and scientists were working on transform this into reality. We are now on the verge of creating this new reality. The general public, however, is not yet informed of what concepts such as neural networks, artificial intelligence and deep learning represent. Much of the current efforts in the field of deep learning technology are related from the simplest level to the very rapid recognition and classification of objects. This involves processing of audible, visual or some other form of digital data. Data are input into systems by using microphones, cameras and other types of sensors.

Google aims to accelerate natural language research’s progress by sharing SyntaxNet | NH Voice. Digital assistants like Siri will take a long time to have ‘natural language understanding’. Many researchers and companies are working push computers towards natural language understanding. Google is at the forefront of the research in which deep neural nets are being used to identify objects in photos and recognize the individual words spoken to digital assistants. Google has even open sourced the software that acts as the foundation for its natural language work. The newly open source software is known as SyntaxNet. Among natural language researchers, it is known as syntactic parser. In fact, the system tries to identify grammar, like noun, verb and what subject refers to and use this information to know what the sentence is generally all about.

As per him, the tool has reduced the company’s error rate by between 20% and 40% when compared to previous methods. By sharing SyntaxNet, Google aims to increase the progress of natural language research. Soon We Won’t Program Computers. We’ll Train Them Like Dogs. Before the invention of the computer, most experimental psychologists thought the brain was an unknowable black box. You could analyze a subject's behavior—ring bell, dog salivates—but thoughts, memories, emotions? That stuff was obscure and inscrutable, beyond the reach of science.

So these behaviorists, as they called themselves, confined their work to the study of stimulus and response, feedback and reinforcement, bells and saliva. They gave up trying to understand the inner workings of the mind. They ruled their field for four decades. Then, in the mid-1950s, a group of rebellious psychologists, linguists, information theorists, and early artificial-intelligence researchers came up with a different conception of the mind. June 2016. The so-called cognitive revolution started small, but as computers became standard equipment in psychology labs across the country, it gained broader acceptance. This story has repeated itself again and again. Code is logical. Tesla Pushes Nvidia Deeper Into The Datacenter. May 16, 2016 Timothy Prickett Morgan If you are trying to figure out what impact the new “Pascal” family of GPUs is going to have on the business at Nvidia, just take a gander at the recent financial results for the datacenter division of the company.

If Nvidia had not spent the better part of a decade building its Tesla compute business, it would be a little smaller and quite a bit less profitable. In the company’s first quarter of fiscal 2017, which ended on May 1, Nvidia posted sales of $1.31 billion, up 13 percent from the year ago period, and net income hit $196 million, up 46 percent over the same term. These are the kinds of growth numbers that all IT vendors like to show to Wall Street, especially with profit growth significantly outpacing revenue growth. We do, too. Huang said in the call with Wall Street that he expected all of Nvidia’s product lines to grow in the next quarter and beyond that, but he did not elaborate on sales for the datacenter unit specifically. Le système de recommandation de produits utilisé par Amazon désormais open source. Emboîtant le pas à Google, Amazon propose aussi d'utiliser gratuitement sa solution de machine learning, appelée "DSSTNE". Amazon vient de déposer sur GitHub sa solution de machine learning (plus précisément de deep learning).

Baptisée DSSTNE (prononcé "destiny"), elle est proposée sous licence Apache 2. "Nous publions DSSTNE en tant que logiciel open source afin que le deep learning puisse aller au-delà de la compréhension du langage et de la reconnaissance d'images, et s'étendre vers la recherche et la recommandation", explique Amazon. Ce système DSSTNE est celui sur lequel l'e-commerçant s'appuie pour réaliser ses recommandations personnalisées de produits aux internautes. L'initiative d'Amazon fait évidemment penser à celle de Google, qui a également offert sa solution de machine learning TensorFlow en la rendant open source il y a quelques mois. Tout ce que vous avez savoir sur le deep learning. Deep-Learning-TensorFlow. Deep-learning neural network creates its own interpretive dance.

Computers Might Just 'See' Like Humans After All. The Next Rembrandt: Training a deep learning machine to paint.