
Apple Pencil : 10 alternatives au stylet connecté de l'iPad Pro Apple a présenté son dernier objet connecté, l’iPad Pro muni d’un stylet Apple Pencil. Mais de nombreux concurrents ont déjà imaginé de tels produits, dont voici quelques expemples d’alternatives. Une semaine après sa naissance, on peut dire que le stylet connecté d’Apple aura déjà fait couler beaucoup d’encre… Si les fans de la pomme ont crié au sacrilège lorsque Apple leur a présenté un vulgaire ‘stylo’… certains professionnels se sont réjouis : oui, un stylet sert a de nombreuses fonctions ! Si l’Apple Pencil sera dans un premier temps réservé aux heureux propriétaire de l’iPad Pro, il existe déjà sur le marché de nombreux stylets pouvant vous accompagner au quotidien que vous soyez artiste ou homme d’affaires, à tous les prix. Voici un résumé de ces 10 produits dans un Bunkr, l’outil de présentation qui remplace PowerPoint : Ci-dessous vous trouverez une description courte et les prix de chaque produit, pour vous faire une idée : 2 – Adonit Jot Touch : 3 – Studio Neat Cosmonaut :
Coding Robin Open this page, allow it to access your webcam and see your face getting recognized by your browser using JavaScript and OpenCV, an "open source computer vision library". That's pretty cool! But recognizing faces in images is not something terribly new and exciting. Wouldn't it be great if we could tell OpenCV to recognize something of our choice, something that is not a face? That is totally possible! Here's the good news: we can generate our own cascade classifier for Haar features. But now for the best of news: keep on reading! The following instructions are heavily based on Naotoshi Seo's immensely helpful notes on OpenCV haartraining and make use of his scripts and resources he released under the MIT licencse. Let's get started The first thing you need to do is clone the repository on GitHub I made for this post. git clone You'll also need OpenCV on your system. If you're on OS X and use homebrew it's as easy as this: find .
Soli : Google veut vous transformer en interface pour objets connectés Passée presque inaperçue dans le flot d’annonces de la Google I/O 2015, l’annonce du projet Soli de Google pourrait aboutir à la constitution d’une interface de commande des objets connectés, directement par votre corps. On connait le potentiel des équipes de R&D de Google, aussi bien chez Google X (lunettes connectées Google Glass, lentilles connectées, drones de livraison, etc) que dans les autres services du géant de la recherche. En matière d’objets connectés, Google a montré qu’il comptait occuper tous les segments du marché, notamment en proposant des déclinaisons d’Android adaptées à chaque catégorie d’objets : Android Auto dans les véhicules, Android TV pour les télévisions intelligentes, Brillo pour les objets les moins gourmands ou même Android Wear pour toutes les montres connectées. Mais le travaille de Google ne se limite pas à interconnecter ces appareils électronique, la firme de Mountain View compte également changer la manière dont on les pilote. Via
'Ninja Run' May Be the Craziest VR Locomotion Technique Yet This is ‘Ninja Run VR’, and its yet another take on the ever present problem of user locomotion in VR experiences. But, as crazy as the concept looks, there may be some method to its madness. The question of how best to allow users of VR apps, games and experiences to move around a virtual space is still a hot topic among players and developers. Now, a developer has come up with a new take on the problem, one that on the surface may well look, well, a little “batshit crazy”. “In many popular anime and cartoons, characters depicted to be moving very fast are often illustrated with their hands and arms trailing their torso in the direction they are moving,” Hall tells us, “Even though is is unrealistic, it does induce the notion that the person has a super power to move very fast.” The developer has begun to flesh out his concepts too, this has resulted in a demo experience which adopts the technique.
Microsoft lève le voile sur le nouveau Kinect pour Windows Après l’avoir imposé avec la Xbox One, le Kinect pour Windows va tenter de séduire encore plus de développeurs. Microsoft a en effet dévoilé le design final du boîtier de reconnaissance de mouvements destiné aux PC. Évidemment, Kinect pour Windows emprunte beaucoup au design de son grand frère sur Xbox One. Les développeurs inscrits à ce programme ont pu recevoir une préversion du boîtier; ces chanceux sont éligibles à la mouture finale du Kinect gratuitement. DIY Hololens by FultonX I wanted to go ahead and develop Hololens apps. Here is Microsoft's live demo video: After experimenting and seeing a couple AR kickstarters, I figured out a way to develop comparable hardware... at least for prototyping. The HMD costs ~$10 and it projects any mobile phone image enlarged at 16" from the eye. I plan to add a Leap Motion, depth sensor, and/or tracking to be able to interact with virtual objects. Edit: TBD items: Google Tango tablet integration: All inclusive sensors and mobile form-factor (fastest road to victory): Without Google Tango: Depth sensor could also just be a head mounted Kinect using: Head tracking could be done with Playstation Move.me at first: Added ideas not on the real Hololens: Pupil tracking idea here:
NASA : un bras articulé piloté par Kinect 2 et l’Oculus Rift À l’heure actuelle, la NASA serait en train de tester un dispositif constitué d’un bras articulé contrôlé à distance par Kinect 2 et l’Oculus Rift. Dépassant les frontières du domaine vidéo-ludique, Kinect 2 capterait les mouvements d’un opérateur avec grande précision afin qu’ils soient reproduit par le robot, tandis que le Rift permettrait à l’opérateur de constater avec aisance les déplacements du bras articulé. Si au jour d’aujourd’hui l’agence spatiale américaine reconnaît que leur système n’est pas suffisamment abouti pour intégrer une mission d’exploration, cela reste néanmoins le but visé. Dans un premier temps, ils espèrent donc pouvoir l’utiliser pour manipuler des robots à bord de la Station Spatiale Internationale (ISS). Pour en savoir plus, nous vous invitons à visionner la démonstration ci-dessous.
Two Way Acrylic Mirror Cut To Size Delivery Rates Standard UK Mainland *For orders placed before 12pm. For orders placed after 12pm this service is 2 - 3 working days. Please note some postcodes e.g. Scottish Islands, Isle of Wight may incur excess shipping charges, we reserve the right to request this from our customers before shipment. All delivery deadlines are subject to stock availability - in the unlikely event that we cannot meet your delivery expectations we will contact you immediately to make alternative arrangements. How quickly will my order arrive? We now offer several delivery services to best suit our customers needs. We are very proud of our excellent customer service so if you have a deadline, or require your order delivered to a non-mainland UK address which may take slightly longer, please do not hesitate to contact us on 01752 897921 or info@cutplasticsheeting.co.uk for more information. Nominated Delivery (request a delivery date) Sundays and Bank Holidays are not available for nominated delivery.
PointSwitch, quand votre doigt devient la télécommande Éteindre la lumière en pointant simplement le doigt sur l’interrupteur ou activer la micro-onde de la même manière sans avoir à bouger du canapé. C’est ce que propose la récente invention de la société PointGrab. Il s’agit d’une nouvelle technologie qui pourrait révolutionner la domotique. Baptisé PointSwitch, ce procédé se base le contrôle gestuel pour commander à distance un appareil électronique. L’utilisateur peut effectuer une action en faisant simplement bouger un doigt. Pour se faire, la technologie fonctionne en créant une sorte d’espace tactile transparent devant l’utilisateur. PointSwitch sera prochainement présentée durant le salon Consumer Electronique Show de2014, à Las Vegas.
for Unity | MiddleVR “Simplicity is the ultimate sophistication” — Leonardo da Vinci “Unity is a 3D application development tool that has been designed to let you focus on creating amazing 3D application.” MiddleVR is the perfect plugin to bring immersive capabilities to your Unity applications in a few minutes! MiddleVR adds the following capabilities to Unity: Scale one visualization with user-centric perspectiveSupport for 3D interaction devices such as 3D trackers (see full list on the right)S3D – Stereoscopy (active, passive)Multi-screens / multi-computers synchronization for higher-resolutions and impressive VR systems3D interactions: navigation, manipulationImmersive menusCustom graphical user interfaces (in HTML5)Display any webpage inside your virtual world Thanks to the simple and powerful MiddleVR plugin for Unity, create and experience interactive & immersive VR applications in minutes! MiddleVR comes in several editions. See the latest Changelog to learn more about the latest features
Un casque révolutionnaire analyse vos ondes cérébrales pour enregistrer en vidéo tout ce qui vous intéresse Et si vous pouviez filmer de courtes vidéos automatiquement, sans même avoir à y penser ? C’est ce que propose une firme japonaise spécialisée dans ce genre d’innovations avec le premier système de caméra portable qui détermine les choses qui vous intéressent en fonction de vos ondes cérébrales… Pour ensuite en faire des vidéos automatiquement ! C’est la société japonaise Neurowear qui est à l’origine de ce prototype de casque caméra. Baptisé Neurocam, il est le premier casque capable de prendre des photographies et des vidéos automatiquement… En analysant vos ondes cérébrales ! L’idée derrière le projet est de pouvoir enregistrer immédiatement tout ce qui vous passionne, en un clin d’œil. Neurocam utilise un iPhone attaché à un casque et équipé d’une application qui peut lire et analyser les ondes cérébrales d’une partie de votre cerveau. Le Neurocam est vraiment une super idée !
RGB and Gesture Sensor - APDS-9960 - SEN-12787 Description: This is the SparkFun RGB and Gesture Sensor, a small breakout board with a built in APDS-9960 sensor that offers ambient light and color measuring, proximity detection, and touchless gesture sensing. With this RGB and Gesture Sensor you will be able to control a computer, microcontroller, robot, and more with a simple swipe of your hand! This is, in fact, the same sensor that the Samsung Galaxy S5 uses and is probably one of the best gesture sensors on the market for the price. The APDS-9960 is a serious little piece of hardware with built in UV and IR blocking filters, four separate diodes sensitive to different directions, and an I2C compatible interface. Features: Operational Voltage: 3.3VAmbient Light & RGB Color SensingProximity SensingGesture DetectionOperating Range: 4-8in (10-20cm)I2C Interface (I2C Address: 0x39) Documents:
Oculus Rift : un seul casque pour le PC et Android Brendan Iribe, le CEO d’Oculus, a enfilé sa tenue de pompier pour calmer le feu des rumeurs qui a suivi sa keynote donnée durant le salon Gamesbeat. Ainsi, alors qu’il avait été rapporté qu’Oculus allait lancer deux casques de réalité virtuelle pour PC et pour Android, Iribe a tenu à préciser qu’il n’y aurait qu’un seul modèle fonctionnant sur les deux plateformes (auxquelles on rajoutera OS X pour faire bonne mesure). Au passage, l’affirmation selon laquelle Oculus Rift serait compatible iOS était fausse : en matière de mobilité, seul Android sera de la partie. Le support d’Android ne sera d’ailleurs pas totalement optimisé au vu de la puissance nécessaire pour motoriser Rift. Carmak avait aussi évoqué la possibilité d’un Oculus Rift autonome, fonctionnant sous Android.