background preloader

Du Big Data au Valued Data - TRIBUNE

Du Big Data au Valued Data - TRIBUNE
Les articles, dossiers, tables rondes et conférences sur le big data se sont multipliés depuis quelques mois. De plus en plus de sociétés s’emparent du phénomène de mode pour revendiquer leur expertise du sujet et s’accaparer les centaines de millions, voire les milliards de dollars promis sur ce « nouveau » marché. Les modes se suivent et se ressemblent : le « tout CRM » à la fin des années 90, le « 1 to 1 » début 2000, le « web 2 »… A chaque fois, ces expressions sont synonymes d’avancées concrètes, d’outils innovants mais aussi de sur-promesses et de raccourcis. Il y a beaucoup de confusion et de fantasmes derrière l’expression « big data ». Mais le flou est entretenu et personne ne sait vraiment de quelles données on parle quand on parle de « big data ». les données provenant des outils de tracking : sites web fréquentés, pages visitées, mots-clés recherchés… ;les données provenant de l’analyse textuelle et/ou sémantique du contenu des réseaux sociaux : qui parle de quoi ?

Big Data : un marché de 24 milliards de dollars en 2016 Ce n’est pas en 2013 qu’on cessera d’entendre parler du Big Data, même si la concrétisation en termes de projets n’est sans doute pas à l’heure actuelle à la hauteur du marketing entourant ce concept. Mais la taille de ce marché a de quoi aiguiser les appétits. D’après IDC, qui se livre à une évaluation, le Big Data, soit les services et technologies associés, est promis à une forte croissance annuelle de l’ordre de 31,7%. +53,4% pour le segment stockage Naturellement, nouveau concept ne signifie pas la création d’un marché totalement nouveau. IDC précise ainsi que ce marché du Big Data englobe certes de nouveaux segments, mais aussi de nombreuses activités déjà établies, notamment dans les secteurs du stockage et de la BI. La croissance annuelle attendue par le cabinet entre 2012 et 2016 se répartit ainsi de la manière suivante : +53,4% pour le stockage et +21,1% pour les services.

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Depuis la démocratisation de l'Internet haut débit, ce sont des milliards de données qui sont déversées par les particuliers, les entreprises et même l'Etat sur la Toile. Les spécialistes appellent ça le "big data", littéralement "grosse donnée"... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM.

Les données, puissance du futur LE MONDE | • Mis à jour le | Par Stéphane Grumbach, Stéphane Frénot Nous vivons une période de rupture, celle de la numérisation de tout : l'homme, la société, les organisations, le savoir, les interactions, le corps biologique de chacun, etc. Tout devient donnée numérique, et par là même a vocation à une existence dans le monde virtuel en émergence. L'écart entre le monde des données et le monde réel, bien anticipé par Jorge Luis Borges dans sa nouvelle visionnaire De la rigueur de la science, évoluera pour devenir de plus en plus subtil. Il nous est aussi difficile d'imaginer les évolutions de la société de l'information qu'il l'était de prévoir au milieu du XIXe siècle les possibilités permises par l'électricité. Les données constituent les briques de base de la société de l'information. Désormais qualifiées de Big Data dans le monde anglo-saxon, elles représentent déjà des masses considérables pour lesquelles on recourt à de nouvelles mesures. Cela n'a pas été simple.

Comment le Big Data va révolutionner 2013 "2012 a été l'année de l'évangélisation, 2013 sera l'année de la mise en place." Chez Atos, géant international du service informatique, pas de doute : cette année verra la multiplication des systèmes d'analyse dits de "Big Data". Plus qu'un concept, cette "grosse quantité de données" (littéralement) renvoie à de nouveaux systèmes informatiques qui promettent de "révolutionner la vie quotidienne". Le Big Data a émergé face à un constat. "Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010", anticipe Chuck Hollis, directeur technique du leader mondial du stockage EMC et gourou du Big Data. Prédire les crises cardiaques Mais dans la pratique, comment s'illustre ce Big Data ? Les applications du Big Data sont nombreuses. "L'analyse des sentiments est très recherchée puisqu'avec des outils de sémantique, nous sommes capables de dégager les différents sentiments manifestés en temps réel sur les réseaux sociaux, même le second degré !" Big Data et politique

Peut-on être contre les big data ? L'article présente les thèses d'Alan Mitchell, le directeur de la stratégie du cabinet Ctrl+shift. Selon lui, "les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d’une informatique productiviste, centralisatrice, centrée sur les grandes organisations." L'effort consenti - notamment en R&D - pour développer cette informatique et ses applications aurait été mieux employé à développer le pouvoir de création des individus, et à les aider à produire eux-mêmes les arbitrages qui leurs sont proposés par cette informatique massive. Daniel Kaplan lui-même reconnaît, à la fin de l'article, que le propos est peut-être un peu fort et qu'il est peu adapté, par exemple, aux les sciences dures. Je m'arrête sur cet article parce qu'on me pose de plus en plus de questions sur ce phénomène big data dont j'ai parlé très tôt. Mais de là à contester l'existence même, l'intérêt et la puissance du phénomène big data, il y a un pas que l'on ne peut franchir.

De la statistique aux big data : ce qui change dans notre compréhension du monde Par Hubert Guillaud le 19/12/12 | 9 commentaires | 4,776 lectures | Impression Lors de la dernière édition des Entretiens du Nouveau Monde industriel qui avaient lieu les 17 et 18 décembre 2012 au Centre Pompidou, le sociologue Dominique Cardon a proposé une intéressante matrice pour comprendre à la fois les limites de la réutilisation des données ouvertes et celle des “Big Data“. Nous sommes désormais confrontés à un incroyable déluge de données produit par le numérique, reconnaît Dominique Cardon. C’est ce qu’on appelle le Big Data. Les données semblent innombrables, proliférantes… Et vont demain nous en apprendre toujours plus sur nous-mêmes… Mais sont-elles nécessaires ? Depuis quelques années, un ensemble de discours (relayé à la fois par des militants, des citoyens, des entreprises, des pouvoirs publics) se met en place autour “du nécessaire partage des données”. Le modèle statistique des données ouvertes consiste, lui, à porter sur la place publique de la donnée “brute”.

Le "Big Data" : un cadeau empoisonné pour les Data Miners ? Techniquement, la possibilité existe : il s’agit par exemple de transformer ces contenus en texte-libre, à partir d’une reconnaissance initiale, puis d’utiliser le text-mining*. Quand on dit « Big Data » on pense plus généralement à la pléthore d’informations existant dans les réseaux sociaux, et que beaucoup de professionnels du marketing aimeraient bien pouvoir mieux exploiter pour leur campagnes, mais quid de la qualité de ces données dites « non-structurées » et de leur utilité pour l’entreprise ? Depuis la naissance de l’informatique, un principe né en 1963 à New York est en effet toujours resté particulièrement vrai de nos jours. L’Analytique face au « Big Data » Comme nous l’expliquons souvent à nos clients en Data Mining, l’analyse statistique impose ainsi certaines règles de base sur les données, et ces règles ont très peu à voir avec la quantité de données. Cette contrainte de base a souvent été oubliée, avec des conséquences qui ont pu être grave pour les entreprises.

Qu'est-ce que le Big Data ? Les 3 V du Big Data Pour bien délimiter le Big Data, le concept a été caractérisé par « Les 3 V » : Volume, Vitesse et Variété. Volume Lorsqu'on parle de volume pour le Big Data, on évoque souvent les 7 téraoctets (7.000 milliards d'octets) générés quotidiennement par Twitter ou les 10 téraoctets de contenus échangés tous les jours sur Facebook. On cite également YouTube qui prend en charge chaque minute l'équivalent de 48 heures de vidéos. De même Google, Amazon et les autres grands acteurs de l'économie numérique sont par nature des gestionnaires de flux de données et manipulent donc des volumes impressionnants. C'est au début des années 2000 que les grands intervenants du Web ont ressenti, bien avant les autres secteurs d'activité, la nécessité de gérer une masse exponentielle d'informations. Variété Le corollaire du volume croissant est une diversification importante des formats et des sources de données. Vitesse La vitesse correspond à la fréquence de remontée des informations.

La mine d'or du Big Data Le Monde | • Mis à jour le | Par Julie Battilana, professeure associée à la Harvard Business School L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple, de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. Quand elles ne mènent pas elles-mêmes ces analyses en interne, les entreprises peuvent les sous-traiter à des sociétés spécialisées, qui fleurissent aujourd'hui dans le monde entier. C'est donc un véritable marché, désigné par le vocable anglo-saxon "Big Data", qui a émergé autour de l'exploitation de la masse de données informatiques disponibles.

Big Data : pourquoi nos métadonnées sont-elles plus personnelles que nos empreintes digitales A l’occasion du colloque « la politique des données personnelles : Big Data ou contrôle individuel « organisé par l’Institut des systèmes complexes et l’Ecole normale supérieure de Lyon qui se tenait le 21 novembre dernier, Yves-Alexandre de Montjoye (@yvesalexandre) était venu présenter ses travaux, et à travers lui, ceux du MediaLab sur ce sujet (Cf. « D’autres outils et règles pour mieux contrôler les données » ). Yves-Alexandre de Montjoye est doctorant au MIT. Il travaille au laboratoire de dynamique humaine du Media Lab, aux côtés de Sandy Pentland, dont nous avons plusieurs fois fait part des travaux. Nos données de déplacements sont encore plus personnelles que nos empreintes digitales Faire correspondre des empreintes digitales n’est pas si simple, rappelle Yves-Alexandre de Montjoye. Image : illustration de l’unicité de nos parcours repérés via des antennes mobiles. Et Yves-Alexandre de nous inviter à retrouver un de ses collègues du Media Lab. Hubert Guillaud

Big Data : la nécessité d’un débat Il nous a semblé intéressant de traduire, de façon collaborative (via Framapad), l’essai original que viennent de publier danah boyd et Kate Crawford présentant « Six provocations au sujet du phénomène des Big Data ».Ces chercheuses, orientées vers l’ethnographie des usages des technologies de communication, s’interrogent – en toute connaissance de cause [cf. cette étude sur les tweets des révolutions tunisiennes et égyptiennes à laquelle a participé danah boyd]- sur les limites épistémologiques, méthodologiques, mais aussi éthiques des Big Data : champ d’études qui s’ouvre aujourd’hui sur la base des énormes jeux de données que fournit internet, en particulier celles générées par l’activité des usagers des sites de réseaux sociaux, que seuls des systèmes informatiques ont la capacité de collecter et de traiter. 6 provocations à propos des Big Data Traduction : Pierre Grosdemouge (@cultord) & Fred Pailler (@Sociographie) à l’initiative de Laurence Allard. L’ère de Big Data a commencé.

Big data, l’enjeu du pouvoir Le Big Data, Le Cloud … Internet évolue maintenant si vite que ses nouveaux développements deviennent des enjeux majeurs avant même que le grand public ait eu le temps de les comprendre. Nous nous retrouvons donc à employer, lire, entendre mentionner des terminologies désignant des concepts ou des technologies dont nous savons qu’elles sont cruciales, sans pour autant avoir la moindre idée de leur nature. Un nom qui fait peur, pour un concept bien simple Au même titre que la mystérieuse appellation “Cloud” désigne tout simplement le stockage de données sur des serveurs distants mais bien réels, le concept de “Big Data” recouvre une réalité somme toute assez simple. Depuis une décennie, le volume et la variété des données informatiques que nous produisons ainsi que la rapidité avec laquelle nous les stockons et traitons ont littéralement explosés. Le Big Data - traduit officiellement par “mégadonnées” en français - désigne cette abondance de données et son exploitation.

L’histoire de l’innovation contemporaine c’est les Big Data La lecture de la semaine provient de la vénérable revue The Atlantic et on la doit à Erik Brynjolfsson, économiste à la Sloan School of Management et responsable du groupe Productivité numérique au Centre sur le Business numérique du Massachusetts Institute of Technology et Andrew McAfee auteurs Race Against the Machine (« La course contre les machines où comment la révolution numérique accélère l’innovation, conduit la productivité et irréversiblement transforme l’emploi et l’économie »). Elle s’intitule : « l’histoire de l’innovation contemporaine, c’est les Big Data » (c’est le nom que l’on donne à l’amoncellement des données). En 1670, commence l’article, à Delphes, en Hollande, un scientifique du nom de Anton van Leeuwenhoek (Wikipédia) fit une chose que beaucoup de scientifiques faisaient depuis 100 ans. Il construisit un microscope. Les entreprises d’aujourd’hui peuvent mesurer leur activité et leur relation aux clients avec une précision sans précédent. Xavier de la Porte

Data centers: la donnée écolo Il y en a des milliers dans le monde. Plus d’une centaine en France. Les data centers sont la face cachée d’Internet ; on y a recours tous les jours. En 2011, Google possédait à lui seul 900 000 serveurs. Il y a un an, l’ONG a tiré la sonnette d’alarme, rappelant que les data centers étaient responsables de 2% des émissions de CO2. Eau de mer. Mais comment y parvenir ? OVH a par exemple inventé son propre système de water cooling, ou «refroidissement à eau». Et quid de la chaleur émise en continu par les data centers ? Energies vertes, réduction de la consommation, recyclage de la chaleur… Ces initiatives suffiront-elles à limiter l’impact environnemental des data centers ? L’évolution des composants électroniques devrait aider. «Ondulateurs».

Related: