GAN Lab: Play with Generative Adversarial Networks in Your Browser!
What is a GAN? Many machine learning systems look at some kind of complicated input (say, an image) and produce a simple output (a label like, "cat"). By contrast, the goal of a generative model is something like the opposite: take a small piece of input—perhaps a few random numbers—and produce a complex output, like an image of a realistic-looking face. A generative adversarial network (GAN) is an especially effective type of generative model, introduced only a few years ago, which has been a subject of intense interest in the machine learning community. You might wonder why we want a system that produces realistic images, or plausible simulations of any other kind of data. Besides the intrinsic intellectual challenge, this turns out to be a surprisingly handy tool, with applications ranging from art to enhancing blurry images. How does a GAN work? The first idea, not new to GANs, is to use randomness as an ingredient. What's happening in the visualization? Pick a data distribution. ).
Un programme pour transformer tous les dessins des internautes en photos de chat réalistes
Un site propose à ses visiteurs d’esquisser les contours du félin, puis de lui donner une allure réaliste. Un procédé qui donne parfois des résultats surprenants, voire effrayants. C’est un petit programme ingénieux qu’a fabriqué le développeur Christopher Hesse. Image-to-Image permet aux internautes de rendre leurs dessins réalistes. Bien sûr, le résultat est loin d’être parfait... mais c’est justement ce qui fait son charme, et tout son intérêt. Lire aussi : On a testé pour vous… Deep Dream, la machine à « rêves » psychédéliques de Google Deux mille photos de chat pour « entraîner » le programme Basé sur Tensorflow, une technologie d’apprentissage des machines développée par Google et accessible à tous, le programme de Christopher Hesse s’est « entraîné » sur des photos déjà existantes. Cette logique est assez proche de celle qui avait déjà amusé les internautes en 2015, quand Google avait présenté son programme Deep Dream.
Pourquoi l'intelligence artificielle va transformer notre gestuelle
Au cours de la dernière décennie, le machine learning a permis l’invention des voitures qui roulent seules, d’une reconnaissance vocale pratique, une recherche sur le Web efficace et une compréhension grandement améliorée du génome humain (Lee Bell, Wired 2016). Avec le machine learning, nous pouvons aujourd’hui apprendre nos gestes à une machine à partir des données transmises par des microcapteurs. Celle-ci sait ensuite les reconnaître, les mémoriser, les interpréter et les partager. Un article du journal Le Monde annonçait « Portée par les progrès de l’intelligence artificielle et du traitement du langage naturel, la voix s’impose peu à peu comme la nouvelle interface pour atteindre l’univers numérique ». Mille milliards de capteurs Depuis dix ans, les microcapteurs prolifèrent et envahissent nos vies. Un nouvel outil pour la rééducation à domicile C’est par la rééducation que nous avons abordé la question. Augmenter nos gestes pour mieux les apprendre ? Faire attention quand on bouge
Little Art Reference things
Keras Documentation
Continuous video classification with TensorFlow, Inception and Recurrent Nets
Part 2 of a series exploring continuous classification methods. A video is a sequence of images. In our previous post, we explored a method for continuous online video classification that treated each frame as discrete, as if its context relative to previous frames was unimportant. Today, we’re going to stop treating our video as individual photos and start treating it like the video that it is by looking at our images in a sequence. We’ll process these sequences by harnessing the magic of recurrent neural networks (RNNs). To restate the problem we outlined in our previous post: We’re attempting to continually classify video as it’s streamed, in an online system. Convolutional neural networks, which we used exclusively in our previous post, do an amazing job at taking in a fixed-size vector, like an image of an animal, and generating a fixed-size label, like the class of animal in the image. Sold! Step 2 is unique so we’ll expand on it a bit. Softmax and pool layers? Frames to sequences
Incorporated | LICEcap
LICEcapsimple animated screen captures LICEcap can capture an area of your desktop and save it directly to .GIF (for viewing in web browsers, etc) or .LCF (see below). LICEcap is an intuitive but flexible application (for Windows and now OSX), that is designed to be lightweight and function with high performance. LICEcap is easy to use: view a demo (output is here). In addition to .GIF, LICEcap supports its own native lossless .LCF file format, which allows for higher compression ratios than .GIF, higher quality (more than 256 colors per frame), and more accurate timestamping. LICEcap is GPL free software, each download package includes the source. Features and options: Record directly to .GIF or .LCF. Download LICEcap v1.32 for Windows (Jun 8 2022) (250kb installer)LICEcap v1.32 for macOS (Jun 8 2022) (876kb DMG) Windows: Prevent positioning window offscreen [issue 72] Windows: sign installer/executable Source codegit clone Old versions
Des chercheurs japonais ont créé une IA générant une image à partir de vos pensées
Des chercheurs japonais du Computational Neuroscience Laboratories (CNS) de Kyoto ainsi que de l’Université de Kyoto ont élaboré une intelligence artificielle capable de voir ce à quoi vous pensez en transcrivant vos pensées par la création d’une nouvelle image. En lisant les ondes cérébrales des personnes, cette intelligence montre ce à quoi vous pensez sous forme d’image. C’est très simple, si vous pensez à la forme d’un carré, sur l’écran devant vous apparaitra une image dans laquelle vous apercevrez un carré, comme on peut le voir sur la vidéo ci-dessous. Durant plus de 10 semaines, de nombreux tests ont été réalisés pour entraîner et améliorer cette intelligence. Grâce aux scintigraphies cérébrales, les scientifiques ont pu créer un réseau d’apprentissage permettant à l’IA de travailler seule afin de décoder les données et voir ce à quoi l’individu pensait. L’intelligence artificielle d’une manière plus générale apprend de la même manière qu’un humain : elle devine. Source : TNW
TF Jam — Shooting Hoops with Machine Learning – TensorFlow
By Abe Haskins (Twitter, Github) In this article, we’ll dive into using Unity3D and TensorFlow to teach an AI to perform a simple in-game task: shooting balls into a hoop. The complete source code is available on Github, if you have any questions reach out to me on Twitter. An Introduction to our Game There is a game where players have one main goal: get a ball into a basket. If you’ve ever played NBA Jam or any of the games it inspired (including the real life NBA league, which I think came after NBA Jam) then you know the mechanic to shoot a ball, from the player’s perspective, is fairly simple. If you were a smart, math-inclined person you may be able to figure out these answers with pen and paper, however the author of this blog post failed 8th grade algebra, so… those “smart person” answers are out of the question. Getting Started We’ll need a handful of things to walk through this project. If you’re not an expert in any of these technologies, that is totally okay! Download the Project