background preloader

Big Data projet

Facebook Twitter

Google utilise l'intelligence artificielle pour optimiser ses datacenters. L'intelligence artificielle est un gros sujet chez Google.

Google utilise l'intelligence artificielle pour optimiser ses datacenters

En dévoilant un peu ses projets liés à la robotique récemment, le géant expliquait que les travaux menés visaient ses unités de production et de stockage des données avant d'être destinés au grand public. Cela se confirme dans un domaine différent, mais lié : l'intelligence artificielle. Dans une interview à Wired, Joe Kava, responsable des datacenters de Google, revient sur l'utilisation de cette technologie a priori plus proche de la science fiction que de l'état actuel de la technique.

Il dévoile pourtant une utilisation concrète, à mille lieues de la voiture sans chauffeur ou des smartphones. Réseaux de neurones artificiels Selon Kava, Google utilise des réseaux de neurones artificiels pour optimiser ses datacenters. Mais Kava précise que dans certains cas, les prises de décision sont beaucoup plus rapides que chez un humain. L’embarras du choix - Comment choisir la bonne plate-forme pour Big Data / Hadoop ? Cette année, le big data est devenu un sujet pertinent dans beaucoup d’entreprises.

L’embarras du choix - Comment choisir la bonne plate-forme pour Big Data / Hadoop ?

Bien qu'il n’y ait pas de définition standard du terme “big data”, Hadoop est de facto un standard pour le traitement big data. Presque tous les grands éditeurs de logiciels tels que IBM, Oracle, SAP et même Microsoft utilisent Hadoop. Cependant une fois que vous avez choisi d’utiliser Hadoop, la première question à se poser est de savoir comment débuter et quel produit choisir pour vos traitements big data. Plusieurs alternatives existent pour installer une version d’Hadoop et réaliser des traitements de ces données.

Cet article présente ces différentes alternatives et recommande à quel moment les utiliser. Alternatives de plates-formes Hadoop L’illustration suivante montre différentes alternatives de plates-formes Hadoop. L'architecture HDFS : Panorama des solutions de big data. Open Data : les propositions des industriels du logiciel au gouvernement. À l’occasion de la tenue de la Conférence de Paris consacrée à l’Open Data, l’association des industriels français du logiciel, l’AFDEL, a dévoilé cinq propositions (PDF) visant à accélérer l’impact économique de l’ouverture des données publiques en France.

Open Data : les propositions des industriels du logiciel au gouvernement

Petit tour d’horizon. La présentation de ces cinq propositions par l’Association française des éditeurs de logiciels et solutions internet (AFDEL) n’est absolument pas anodine, puisqu’elle intervient au même moment que la Conférence de Paris sur l’Open Data, où sont notamment attendus plusieurs membres du gouvernement. Après avoir souligné que la politique française d’ouverture des données publiques avait « considérablement progressé ces dernières années, en particulier au niveau du cadre réglementaire », l’AFDEL explique avoir constaté que le développement de l’Open Data demeurait aujourd’hui « en deçà des ambitions affichées initialement » par les autorités, tout du moins sur le plan économique.

Hadoop. Un article de Wikipédia, l'encyclopédie libre.

Hadoop

Hadoop a été créé par Doug Cutting et fait partie des projets de la fondation logicielle Apache depuis 2009. Historique[modifier | modifier le code] En 2004, Google publie un article présentant son algorithme basé sur des opérations analytiques à grande échelle sur un grand cluster de serveurs, le MapReduce, ainsi que son système de fichier en cluster, le GoogleFS. Doug Cutting, qui travaille à cette époque sur le développement de Apache Lucene et rencontre des problèmes similaires à ceux de la firme de Mountain View, décide alors de reprendre les concepts décrits dans l'article pour développer sa propre version des outils en version Open Source, qui deviendra le projet Hadoop.

De la “Data Science” à l’infovisualisation (1/2) : qu’est-ce qu’un data scientist. Par Rémi Sussan le 06/03/13 | 7 commentaires | 2,637 lectures | Impression Comment articuler “Science des données” et visualisation ?

De la “Data Science” à l’infovisualisation (1/2) : qu’est-ce qu’un data scientist

C’est à cette question que se sont attaqués une multitude d’experts lors de la journée d’étude PraTIC du 25 février (conçue et organisée par Etienne-Armand Amato, Etienne Perény et Jean-Christophe Plantin pour Gobelins, l’Ecole de l’Image, en partenariat avec le laboratoire Paragraphe de l’Université Paris 8 et l’Observatoire des mondes numériques en sciences humaines). Car il s’agit de deux domaines indissociables, mais, comme l’a expliqué Jean-Christophe Plantin (@JCPlantin, blog), souvent présentés de manière séparée. Pourtant, avant toute cartographie, la sélection et la préparation des données s’imposent.

La science des données est-elle une science ? En quoi consiste sa tâche ? Le domaine de la “data science” n’est pas sans susciter quelques interrogations. Alliancebigdata.com. ZeroPC - Your content navigator for the cloud. Big Data. Hadoop Hadoop est aujourd’hui la plateforme de référence permettant l’écriture d’application de stockage et de traitement de données distribuées en mode batch.

Big Data

Lire la fiche complètetop Hive A l’image de Pig, Hive permet l’écriture de tâche de traitement de données aux développeurs ne maîtrisant pas Java. Là où Pig définit un langage procédural permettant d’exploiter le cluster, Hive permet de définir des tables structurées de type SQL et de les alimenter avec des données provenant soit du cluster, soit de sources externes. Lire la fiche complètetop Pig Pig est un outil de traitement de données qui fait partie de la suite Hadoop et qui permet l’écriture de scripts qui sont éxécutés sur l’infrastructure Hadoop sans être obligé de passer par l’écriture de tâche en Java via le framework MapReduce.

Big Data. State Street's Chief Scientist on How to Tame Big Data Using Semantics. Hadoop : Toute l'Actualité du monde informatique sur Hadoop. La fondation Apache publie Hadoop 2. L'architecture Yarn de Hadoop 2.

La fondation Apache publie Hadoop 2

Crédit Photo: D.R Après la version preview en juin, l'Apache Software Foundation a publié la version définitive de Hadoop 2, la distribution pour le traitement du big data. L'Apache Software Foundation a dévoilé Hadoop 2, la dernière version du logiciel Open Source de traitement big data. Cette évolution a mis plus de 4 ans avant d'être publiée et intègre de nouveaux composants. La modification la plus notable est l'arrivée de Yarn (Yet Another Resource Negotiator), le successeur de MapReduce. STATISTICA : Data Mining, Contrôle Qualité, Statistiques, Modélisation Prédictive, Scoring, Big Data.

How The Next Generation Database Could Solve Your Problems. James Lyne: Everyday cybercrime. Safe Deposit. By Tara Swords, August 2013 After the economically booming years of the mid-2000s, the global financial crisis of 2008 wiped out several banks in the United States and the United Kingdom and brought many others perilously close to collapse.

Safe Deposit

While the crisis sent shock waves throughout much of the world, banks in Australia—already operating in a more carefully regulated environment—had less exposure to the chaos. But in a highly interconnected global economy, it was impossible for large banks anywhere to remain entirely insulated. Russell Foster: Why do we sleep? Patrick Dupont - #Big #Data #Quote #citation #art #42Cre8.

MIT: 10 Breakthrough Technologies 2013 you shou... Facebook, Pandora, Flickr, Autodesk Go Head to Head in Lego's Robot Building Competition. To celebrate the launch of Lego's newest robotics set, the toymaker tapped four of Silicon Valley's tech companies, pitting them against each other in a robot-building competition.

Facebook, Pandora, Flickr, Autodesk Go Head to Head in Lego's Robot Building Competition

The stakes were high: a trophy made of toy bricks, prizes for charity--and, of course, eternal bragging rights. "We're a kid's company so everyone has to win something," declared Michael McNally, brand relations direction at Lego Systems, as he announced the results of the contest Thursday afternoon. Teams from Flickr, Facebook, Autodesk, and were all awarded different distinctions for their robotic creations--and five Lego Mindstorms sets were donated to a charity of their choice.

Visualizing The World's Biggest Data Breaches. The experience is becoming so common it’s scary.

Visualizing The World's Biggest Data Breaches

You're sitting there minding your own business, when up pops an email (or worse, a letter via snail mail) from some company you may or may not be familiar with telling you that your data has been compromised by a security breach. How To Find Inspiration In The Age Of Information Overload ⚙ Co. I recently came across a quote from spoken word poet Phil Kaye’s Repetition. In it, he says: My mother taught me this trick, If you repeat something over and over again, it loses it’s meaning...Our existence, she said, is the same way. In Defense of Creative Technologists. Kurt Roberts is chief creative technologist at RP3 Agency, an advertising, marketing and communications agency in Bethesda, Md. Find him on Twitter @kurtroberts. How An Arcane Coding Method From 1970s Banking Software Could Save The Sanity Of Web Developers Everywhere ⚙ Co. Today’s web programmers grapple with problems that people in the early days never had to deal with.

They’re building complex UIs, juggling a bunch of APIs, and running multiple processes at the same time. All of these tasks require mastering the flow of data between application components in real-time, something which even the most advanced developers struggle with. Why can’t things be easier? Most modern programming techniques descend from a 60-year-old computing paradigm which stipulates, among other things, that all programs must run one step at a time--not good for handling multiple tasks at once.