background preloader

Big Data : le grand déséquilibre

Big Data : le grand déséquilibre
Pour Stéphane Grumbach (blog, @sgrumbach), directeur de recherche à l’Inria, les Big Data sont désormais un sujet important et dont les enjeux sont régulièrement médiatisés, comme le soulignait la semaine dernière le New York Times en s’intéressant à la consommation énergétique des centres de données. Souvent, le sujet est abordé sous l’angle (important) de la protection des données personnelles. Sur la scène de Lift France 2012, Stéphane Grumbach propose lui de l’aborder sous l’angle de la géographie. Est-ce que l’endroit où se trouvent les données est important ? Le sujet semble iconoclaste, car la caractéristique même de ces données numériques est d’être par essence reproductibles, liquides, disponibles partout et tout le temps… Pas si sûr estime le chercheur (voir sa présentation). La taille de l’univers numérique est estimée à 2,7 Zettabytes de données et il devrait atteindre 35 Zettabytes en 2020. Le second est de tirer du sens des données, comme le fait le profilage.

Septembre 2012 : Open data et géomaticiens : « je t’aime, moi non plus » Documents > A la Une sur SIG la Lettre > Open data et géomaticiens : « je t’aime, moi non plus » L’open data n’en finit pas de questionner les géomaticiens. Pour preuve, la rencontre entre les deux communautés, organisée début juin par l’Afigéo, le forum français de l’OGC et LiberTIC a rassemblé près de 150 personnes à Lyon, en marge des Halles géomatiques et du salon UseIT. Et elle a apporté une certitude : acteurs de la géomatique et de l’open data ont tout intérêt à collaborer. Mais ce n’est pas facile tous les jours car, au-delà d’objectifs apparemment communs, ce sont deux cultures complètement différentes qu’il faut concilier. C’est en mai que La Rochelle a ouvert sa plate-forme open data Un géomaticien courtisé ? Le site open data de la région PACA a ouvert en juillet 2012. les données géographiques y sont présentées en partenariat avec le CRIGE Une place difficile à trouver C’est que les services géomatiques se sentent parfois exclus de la démarche open data, voire marginalisés.

MesInfos : quand les “données personnelles” deviennent vraiment… personnelles Par Renaud Francou le 04/12/12 | 6 commentaires | 2,855 lectures | Impression Que se passerait-il si, demain, les organisations partageaient les données personnelles qu’elles détiennent avec les individus qu’elles concernent, pour qu’ils en fassent ce que bon leur semble ? Quels usages, quelles connaissances, quels services, quels risques aussi, pourraient-ils émerger si les individus disposaient, non seulement du contrôle, mais de l’usage de ces données : leurs finances, leurs achats, leurs déplacements, leurs communications et leurs relations en ligne, leur navigation web, leur consommation d’énergie, etc. ? Voilà tout juste un an, la Fing et un petit groupe d’entreprises, d’acteurs publics et de chercheurs décidaient de chercher ensemble les réponses à ces questions un peu iconoclastes : le projet MesInfos était né. Aujourd’hui, celui-ci s’apprête à passer à une nouvelle étape, celle de l’expérimentation. Rééquilibrer la relation entre les individus et les organisations Intéressé ?

Intel Science & Technology Center for Big Data | Information about Big Data from the Intel Science & Technology Center for Big Data The Intel Science and Technology Center for Big Data is one of a series of research collaborations that Intel is establishing with U.S. universities to identify and prototype revolutionary technology opportunities. The centers are designed to encourage closer collaboration among academic thought leaders in essential technology areas. The Intel Science and Technology Center for Big Data is based at the Computer Science and Artificial Intelligence Laboratory (CSAIL) at MIT and is primarily affiliated with the Intel Parallel Computing Lab. Le ministre Alain Vidalies dénonce les effets du site NosDéputés Alain Vidalies, le ministre délégué en charge des relations avec le Parlement, vient de soulever la question des effets de l’initiative NosDéputés, ce site qui établit depuis trois ans un travail de veille, d’archivage et de classement des députés en pointant leur activité parlementaire et donc leur assiduité dans l’hémicycle. Pour lui, ce site a « des effets dangereux voire pernicieux sur le travail parlementaire », du fait de son approche quantitative qui pousse les élus à user de techniques peu favorables au bon fonctionnement des institutions parlementaires, dans l'unique but de monter dans le classement de NosDéputés. Samedi, lors de l’université d’été du Parti socialiste à La Rochelle, le ministre chargé des relations avec le Parlement s’est exprimé sur les effets d’Internet vis à vis du travail de nos députés. Pour Alain Vidalies, « La fonction parlementaire n’a pas échappé à l’émergence des réseaux sociaux. Les dérives d’une approche quantitative Xavier Berne

Big data Un article de Wikipédia, l'encyclopédie libre. Une visualisation des données créée par IBM[1] montre que les big data que Wikipedia modifie à l'aide du robot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations[2]. Croissance et Numérisation de la Capacité de Stockage Mondiale de L'information[3]. Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Certains supposent qu'ils pourraient aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée. Dimensions des big data[modifier | modifier le code] Le Big Data s'accompagne du développement d'applications à visée analytique, qui traitent les données pour en tirer du sens[15]. Volume[modifier | modifier le code] Variété[modifier | modifier le code]

Big data: The next frontier for innovation, competition, and productivity The amount of data in our world has been exploding, and analyzing large data sets—so-called big data—will become a key basis of competition, underpinning new waves of productivity growth, innovation, and consumer surplus, according to research by MGI and McKinsey's Business Technology Office. Leaders in every sector will have to grapple with the implications of big data, not just a few data-oriented managers. The increasing volume and detail of information captured by enterprises, the rise of multimedia, social media, and the Internet of Things will fuel exponential growth in data for the foreseeable future. MGI studied big data in five domains—healthcare in the United States, the public sector in Europe, retail in the United States, and manufacturing and personal-location data globally. Big data can generate value in each. For example, a retailer using big data to the full could increase its operating margin by more than 60 percent. 1. 2. Podcast 3. 4. 5. 6. 7.

Web Open-Source et modulable à Montpellier – We make data porn : Les données sont toujours fausses L’Open-Data, c’est avant tout des données. Dans un monde parfait, ces données seraient toujours à jour, vérifiées et croisées avec les autres jeux de données, seulement voilà : nous ne vivons pas dans un monde parfait ! En tant que développeur devant utiliser des jeux de données issus de l’Open-Data, comment s’en sortir avec des données probablement fausses, incomplètes ou non unifiées ? Ce premier article de la série «We make data porn» va tenter de répondre à ces questions. Pourquoi les données sont fausses ? Je ne dis pas que les gestionnaires de jeux de données sont incompétents, mais qu’il relève du tour de force d’obtenir des données cohérentes avec les processus de publication couramment utilisés. Les collectivités n’ouvrent pas des données en claquant des doigts. Décider de quelles données ouvrirDéterminer où se trouvent les données brutes (quels services, quelles modalités d’extraction…)Extraire les donnéesRe-formater les données suivant leur typePublier les données En résumé :

Prédictions : les données seules ne sont pas suffisantes Par Rémi Sussan le 25/09/12 | 4 commentaires | 1,758 lectures | Impression Quelles relations établir entre la gigantesque masse de données fourbie par les ordinateurs – les fameux Big Data -, les modèles utilisés pour les analyser, et les humains qui les interprètent ? C’est la question que s’est posée Nate Silver, dans une brillante analyse de la science météorologique, parue dans le New York Times. Nate Silver n’est pas un inconnu, loin s’en faut. Figurant parmi les cent personnes les plus influentes de 2009 toujours selon le New York Times, ce génie des maths a commencé sa carrière… en analysant les probabilités des résultats des matchs de baseball, domaine qu’il a parait-il révolutionné. Puis il s’est fait connaître par son blog politique (@fivethirtyeight) analysant les chances des différents candidats aux élections américaines. La météo, un succès ? Image : Orage sur Enschede, aux Pays-Bas via Wikimedia Commons. Pourtant, tout ne marche pas aussi mal, nous rassure-t-il. Rémi Sussan

mars | 2013 | Data Tuesday Découvrez un article sur la présentation d’Elian Carsenat de NomDeTri.fr lors du dernier Data Tuesday Smart Cities & Data qui a eu lieu chez Ipsos le 26 mars. Like this: J'aime chargement… Merci à tous d’avoir participé à la rencontre SMART CITIES & DATA hébergé par Ipsos France ce mardi 26 mars ! Le prochain événement Data Tuesday aura lieu en mai et aura pour thème "Data Tourisme & Transport". Les présentations sont disponibles ci-dessous Lire la suite Découvrez le programme avec les premiers intervenants confirmés! Pensez à vous inscrire rapidement pour la prochaine rencontre Smart Cities & Data qui aura lieu le 26 mars à 18h30! Les Data Tuesday remercient chaleureusement IPSOS pour leur accueil ! Les Data Tuesday vous donnent rendez-vous le mardi 26 mars à 18h30 (lieu à confirmer) sur le thème : Smart Cities & Data !

Ten Principles for Opening Up Government Information - Policy Center Available as PDF here. August 11, 2010 In October 2007, 30 open government advocates met in Sebastopol, California to discuss how government could open up electronically-stored government data for public use. Up until that point, the federal and state governments had made some data available to the public, usually inconsistently and incompletely, which had whetted the advocates' appetites for more and better data. We have updated and expanded upon the Sebastopol list and identified ten principles that provide a lens to evaluate the extent to which government data is open and accessible to the public. 1. Datasets released by the government should be as complete as possible, reflecting the entirety of what is recorded about a particular subject. 2. Datasets released by the government should be primary source data. 3. Datasets released by the government should be available to the public in a timely fashion. 4. 5. Machines can handle certain kinds of inputs much better than others. 6. 7. 8.

Big Data, grande illusion La cause serait entendue : après le cloud computing et l’internet des objets, les « big data » constitueraient la prochaine « révolution » apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n’est pas d’accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d’une informatique productiviste, centralisatrice, centrée sur les grandes organisations. « Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. La statistique fournit une manière extraordinairement puissante et utile de remettre en questions les suppositions et les inférences que les cerveaux humains produisent naturellement – et souvent de manière erronée. Mitchell ne conteste pas l’utilité des Big Data, il en conteste la nouveauté et le degré de priorité dans les agendas de recherche et d’investissement. Et pourquoi pas ? Daniel Kaplan

Problématique - TPE : Big Data "Quels sont les défis induits par le phénomène du Big Data ?" La croissance des volumes d’informations numériques est telle que les bases de données traditionnelles qui les gèrent ne suffisent plus. Il faut imaginer de nouvelles architectures (logicielles et matérielles), de nouvelles technologies hardware et des nouveaux algorithmes pour stocker, traiter et transporter ces masses considérables de données. Pour donner une idée de ces volumes, il suffit de savoir que chaque jour, l'humanité produit environ 9000 nouveaux articles sur Wikipédia, environ 400 millions de tweets, 540 millions de SMS et 145 milliards de mails sont envoyés au niveau mondial ; 104 000 heures de vidéos sont mises en ligne sur YouTube, 4,5 milliards de recherches sont lancées sur Google, 552 millions d'utilisateurs sont connectés à Facebook [Source: le journal du CNRS, N° 269, Novembre-Décembre 2012].

Open Government Data Benchmark: FR, UK, USA Finally there’s a very interesting comparison of OGD in three leading countries. qunb did it . Have a look at this presentation. 1) There are lots of duplicates on OGD platforms 2) There are very few structured data yet 3) Apps are the real challenge There are different strategies fostering the developmemt of Apps made with open data. The presentation in French Like this: Like Loading...

L’histoire de l’innovation contemporaine c’est les Big Data La lecture de la semaine provient de la vénérable revue The Atlantic et on la doit à Erik Brynjolfsson, économiste à la Sloan School of Management et responsable du groupe Productivité numérique au Centre sur le Business numérique du Massachusetts Institute of Technology et Andrew McAfee auteurs Race Against the Machine (« La course contre les machines où comment la révolution numérique accélère l’innovation, conduit la productivité et irréversiblement transforme l’emploi et l’économie »). Elle s’intitule : « l’histoire de l’innovation contemporaine, c’est les Big Data » (c’est le nom que l’on donne à l’amoncellement des données). En 1670, commence l’article, à Delphes, en Hollande, un scientifique du nom de Anton van Leeuwenhoek (Wikipédia) fit une chose que beaucoup de scientifiques faisaient depuis 100 ans. Il construisit un microscope. Ce microscope était différent des autres, mais il n’avait rien d’extraordinaire. Cependant, malgré leurs forces, les mesures ont un défaut.

Related: