
OpenWorld 2011 : Avec Exalytics, Oracle analyse des To de données en mémoire Il fallait s'attendre à ce qu'Oracle concocte une réponse aux appliances analytiques in memory de SAP. C'est chose faite avec la machine Exalytics qui intègre, de façon parallélisée, la base de données en mémoire TimesTen, la suite BI d'Oracle et la base multidimensionnelle Essbase. Le tout logé dans une armoire équipée de quatre Xeon 10 coeurs pouvant accueillir en mémoire de 5 à 10 To de données compressées transmis depuis une machine Exadata. Des réponses quasi instantanées aux requêtes et une interface de visualisation interactive pour accélérer l'analyse. Après les machines Exadata et Exalogic Elastic Cloud, combinant matériel et logiciels pour optimiser la gestion des bases de données (pour l'une) et des applications sous Java (pour l'autre), on se doutait qu'Oracle n'en resterait pas là. Exalytics fonctionne avec ExadataLa machine Exalytics associe elle aussi de façon étroite le matériel et le logiciel, de façon à optimiser les échanges de données et leur traitement.
Une société de la requête (3/3) : Comprendre Google Dans le monde numérique d'aujourd'hui, il est nécessaire de comprendre le fonctionnement intrinsèque des systèmes que nous utilisons. En novembre 2009, la conférence sur la "Société de la requête" s'est ainsi intéressé à Google, pour comprendre la manière dont il nous manipule et à partir de là, imaginer comment le contourner et le subvertir. Retour sur la Googlisation de nos vies... La machine à globaliser : réinterpréter les résultats des machines Pour la chercheuse Esther Weltevrede, membre de GovCom.org, une association hollandaise dédiée à la création d'outils politique en ligne, et de l'Initiative Méthodes numériques (Digital methods initiative), la question clef à se poser est "quel type de machine à globaliser est Google ?" Image : Esther Weltevrede photographiée par Anne Helmond. Si le PageRank est considéré comme un système de classement mondial de toutes les pages web, conçu pour toutes les informations du monde, que se passe-t-il quand Google passe à l'échelle locale ?
OpenWorld 2011 : Oracle bâtit une solution pour traiter les Big Data Une appliance de plus s'ajoute au catalogue Oracle. Cette fois, il s'agit de prendre à bras le corps le phénomène Big Data. Pour le faire, Oracle ne rechigne pas à recourir lui aussi au framework Open Source Hadoop MapReduce dans un assemblage de logiciels qui comprend aussi le langage d'analyse statistique R, avec, qui l'aurait cru, une base NoSQL maison. Les Big Data, avalanche de données générée par les réseaux sociaux, les capteurs mobiles, compteurs électriques et autres dispositifs ne peuvent généralement pas être traitées en l'état par les solutions de BI. Trop d'informations déversées sans discernement, mais qui peuvent receler des « pépites », expliquait Andy Mendelsohn, senior vice-président, responsable des technologies serveur d'Oracle, en introduction de son keynote au deuxième jour d'OpenWorld. La partie matérielle fonctionne sous Oracle Linux et héberge une machine virtuelle Java Hotspot.
Réseaux contre hiérarchies, liens faibles contre liens forts Emeutes, révolution, activisme… Depuis plusieurs mois, chercheurs et commentateurs s’interrogent sur les liens entre médias sociaux et révolution. C’est le sujet du dossier de la semaine d’InternetActu. Après un regard sur les récentes émeutes britanniques, retour sur l’article de fonds publié par Malcolm Gladwell l’année dernière. Pour le New Yorker, Malcolm Gladwell (blog) a rédigé une brillante mise au point sur les différences entre l’activisme en ligne et l’activisme réel, dans un article intitulé « Petit changement : pourquoi la révolution ne sera pas twittée » où il montre les limites des organisations en réseaux comparés aux structures hiérarchiques classiques. Le lundi 1er février 1960, vers 16h30, 4 étudiants étaient assis au comptoir du Woolworth, un bar du centre-ville de Greensboro, en Caroline du Nord. 4 étudiants en première année d’un collège noir à proximité. Image : Les 4 de Greensboro : Ezell A. « Le monde, nous dit-on, est au milieu d’une révolution. Pour Jillian C.
Big Data : avec le rachat de Gluster, Red Hat s'attaque au stockage des données non structurées::Gestion des données Red Hat se renforce dans la gestion du Big Data et dans les données non structurées en annonçant le rachat de Gluster pour 136 millions de dollars en numéraire. Gluster, une société localisée en Californie, développe une solution logicielle de stockage Open Source adaptée à la problématique des données non-structurées, comme les emails, les vidéos, les documents, nous rappelle Red Hat. La société développe notamment un système de stockage scalable baptisé GlusterFS qui permet d'associer un pool de système de stockage à des ressources informatiques scalables, de haute performance et centralisées. Il s'agit en clair de donner la possibilité aux entreprises de s'attaquer au problème du stockage dans un environnement Big Data, avec leur solution de stockage existante, et ce à moindre coût, évidemment - Open Source oblige. Red Hat compte ainsi adapter l'offre de Gluster tant on permise qu'au sein de son offre de Cloud Public. ses investissements dans ce secteur.
Vouloir un web coopératif Par Daniel Kaplan le 27/06/08 | 17 commentaires | 17,522 lectures | Impression En 2006, Time Magazine nous nommait, nous tous, “personnes de l’année“. L’explosion des blogs, des plates-formes de partage d’images, des réseaux sociaux, donnait le sentiment d’une prise d’assaut de l’univers médiatique par son propre public. Mais en page intérieure du numéro de l’année suivante, l’hebdomadaire reproduisait presque la même couverture, avec un autre titre : “Personne de l’année : Eux“, eux les médias, les puissants, les influents. Que s’est-il passé d’une année sur l’autre ? Oui : la prise de conscience que le web “massivement relationnel” ne transforme pas à lui tout seul la vie démocratique, ni les médias. Portabilité, propriété La discussion sur la “portabilité” des profils associés aux réseaux sociaux est sans doute la plus symbolique du moment. Elle marque d’une part la fin d’une certaine naïveté vis-à-vis des acteurs du web 2.0 : Rupert Murdoch, Yahoo! La révolution des petits riens
Hadoop Un article de Wikipédia, l'encyclopédie libre. Hadoop a été créé par Doug Cutting et fait partie des projets de la fondation logicielle Apache depuis 2009. Historique[modifier | modifier le code] En 2004, Google publie un article présentant son algorithme basé sur des opérations analytiques à grande échelle sur un grand cluster de serveurs, le MapReduce, ainsi que son système de fichier en cluster, le GoogleFS. Architecture[modifier | modifier le code] Hadoop Distributed File System[modifier | modifier le code] Une architecture de machines HDFS (aussi appelée cluster HDFS) repose sur deux types de composants majeurs : Le HDFS n'est pas entièrement conforme aux spécifications POSIX, en effet les exigences relatives à un système de fichiers POSIX diffèrent des objectifs cibles pour une application Hadoop. MapReduce[modifier | modifier le code] Hadoop dispose d'une implémentation complète de l'algorithme de MapReduce. HBase[modifier | modifier le code] Article détaillé : HBase.
Nichicon claims smallest, quickest EV charger Japan's Nichicon says it has developed "the world's smallest and lightest quick chargers" with two units that take 35 to 60 minutes to charge. The Kyoto-based capacitor maker says the NQC-A202 charger is about 5 feet tall and 13 inches wide, weighing 330 pounds. It has an output capacity of 20 kilowatts. The NQC-A302 unit has a 30kW capacity but weighs 375 pounds. The output voltage is 50 to 500 volts DC. The company says the chargers are half the weight and size of existing models but still meet standards set by CHAdeMo , a rapid-charge association led by Tokyo Electric Power Company and Japanese automakers. The chargers will be aimed at car dealerships and other customers. As of last month, there were nearly 800 CHAdeMo rapid-charge stations on the road, with the vast majority in Japan. Nichicon has also produced on-board chargers for the Mitsubishi i-MiEV as well as the Nissan Leaf . (Via Nikkei)
Les innovations des technologies Big Data par Brian Gentile ¿ Chronique Solutions Selon une étude Gartner , le volume de données généré sur la seule année 2009 était plus important que le cumul des 5000 années précédentes. Les technologies doivent suivre. L'expression Big Data, apparue pour la première fois en 2008, se réfère aux technologies qui permettent aux entreprises d'analyser rapidement un volume de données très important et d'obtenir une vue synoptique. Car aujourd'hui, le nombre de données à traiter est sans égal et augmente de manière exponentielle. Les matériels de base courants ("commodity"), moins onéreux, permettent également de développer des solutions destinées à analyser et agréger instantanément des pétaoctets de données (1 pétaoctet = 1 000 téraoctets). A partir de quelle taille un volume de données est-il important ? "Les hommes ont généré 150 exaoctets (milliards de gigaoctets) de données en 2005. Innovations Big Data 1. 2. 3. Map-Reduce et Hadoop sont les modèles NoSQL les plus répandus. Vers une informatique décisionnelle - BI - Big Data.
Perian - The swiss-army knife of QuickTime® components home: Strata New York 2011 - O'Reilly Conferences, September 22 - 23, 2011, New York, NY Find out more about Strata 2012, happening February 28 - March 1 in Santa Clara, California. If you weren't able to attend, you can still get a taste of Strata New York with the Strata Conference New York 2011: Complete Video Compilation . At our first Strata Conference in February, forward-thinking developers, analysts, researchers, and entrepreneurs realized that they were converging on a new profession—data scientist. Since then, demand has skyrocketed for data scientists who are proficient in the fast-moving constellation of technologies for gleaning insight and utility from big data. "A significant constraint on realizing value from big data will be a shortage of talent, particularly of people with deep expertise in statistic and machine learning, and the manager and analysts who know how to operate companies by using insights from big data." —McKinsey Global Institute report, "Big Data: The next frontier for innovation, competition, and productivity," May, 2011