background preloader

De la statistique aux big data : ce qui change dans notre compréhension du monde

Par Hubert Guillaud le 19/12/12 | 9 commentaires | 4,776 lectures | Impression Lors de la dernière édition des Entretiens du Nouveau Monde industriel qui avaient lieu les 17 et 18 décembre 2012 au Centre Pompidou, le sociologue Dominique Cardon a proposé une intéressante matrice pour comprendre à la fois les limites de la réutilisation des données ouvertes et celle des “Big Data“. Nous sommes désormais confrontés à un incroyable déluge de données produit par le numérique, reconnaît Dominique Cardon. C’est ce qu’on appelle le Big Data. Les données semblent innombrables, proliférantes… Et vont demain nous en apprendre toujours plus sur nous-mêmes… Mais sont-elles nécessaires ? Depuis quelques années, un ensemble de discours (relayé à la fois par des militants, des citoyens, des entreprises, des pouvoirs publics) se met en place autour “du nécessaire partage des données”. Le modèle statistique des données ouvertes consiste, lui, à porter sur la place publique de la donnée “brute”.

http://www.internetactu.net/2012/12/19/de-la-statistique-aux-big-data-ce-qui-change-dans-notre-comprehension-du-monde/

Related:  big dataBig DataData Mining

Comment le Big Data va révolutionner 2013 "2012 a été l'année de l'évangélisation, 2013 sera l'année de la mise en place." Chez Atos, géant international du service informatique, pas de doute : cette année verra la multiplication des systèmes d'analyse dits de "Big Data". Plus qu'un concept, cette "grosse quantité de données" (littéralement) renvoie à de nouveaux systèmes informatiques qui promettent de "révolutionner la vie quotidienne". Le Big Data a émergé face à un constat. Chaque jour, 2,5 trillions d'octets de données sont générés dans le monde. Ces informations proviennent de partout : réseaux sociaux, photos et vidéos publiées sur internet, signaux GPS des smartphones, indications climatiques captées à travers le monde, transactions bancaires, etc.

Du Big Data au Valued Data - TRIBUNE Les articles, dossiers, tables rondes et conférences sur le big data se sont multipliés depuis quelques mois. De plus en plus de sociétés s’emparent du phénomène de mode pour revendiquer leur expertise du sujet et s’accaparer les centaines de millions, voire les milliards de dollars promis sur ce « nouveau » marché. Les modes se suivent et se ressemblent : le « tout CRM » à la fin des années 90, le « 1 to 1 » début 2000, le « web 2 »… A chaque fois, ces expressions sont synonymes d’avancées concrètes, d’outils innovants mais aussi de sur-promesses et de raccourcis. Il y a beaucoup de confusion et de fantasmes derrière l’expression « big data ». Cette expression n’est pas suffisamment bien définie. C’est dommage car il est vrai que les données se multiplient et il est vrai qu’il faut apprendre à les collecter, à les extraire, à les exploiter et à les interpréter.

Qu'est-ce que le Big Data ? Les 3 V du Big Data Pour bien délimiter le Big Data, le concept a été caractérisé par « Les 3 V » : Volume, Vitesse et Variété. Volume Lorsqu'on parle de volume pour le Big Data, on évoque souvent les 7 téraoctets (7.000 milliards d'octets) générés quotidiennement par Twitter ou les 10 téraoctets de contenus échangés tous les jours sur Facebook. On cite également YouTube qui prend en charge chaque minute l'équivalent de 48 heures de vidéos. Dominique Cardon, La démocratie Internet. Promesses et limites 1Dans La démocratie Internet, Dominique Cardon réussit la prouesse de rédiger une synthèse claire, problématisée, pédagogique et, ce n'est pas la moindre de ses qualités, courte, sur une question majeure touchant Internet : sa dimension politique. L'intérêt principal de l'ouvrage de Dominique Cardon est sa cohérence et sa capacité à montrer que les éléments qui peuvent paraître éloignés entre eux et isolés constituent en réalité la trame d'une même histoire politique d'Internet. 2Ce livre s'adresse d'abord à un lectorat non initié et non convaincu, curieux de comprendre et d'agir dans une société évoluant rapidement, mais ne disposant pas de clés suffisantes pour se forger une opinion sur les questions politiques que pose Internet. En effet, le lecteur est d'abord exposé au bruit médiatique dominant, largement webophobe, abusant des anecdotes rapides et des postures craintives, des approximations et des jugements à l'emporte-pièce.

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Depuis la démocratisation de l'Internet haut débit, ce sont des milliards de données qui sont déversées par les particuliers, les entreprises et même l'Etat sur la Toile.

Big Data : définition, enjeux et applications Qu’est-ce que l’analyse du Big Data ? Des solutions de stockage innovantes couplées à des logiciels exploitant des algorithmes informatiques sophistiqués permettent l’analyse de ces gros volumes de données numériques. Ces outils sont conçus pour détecter les informations pertinentes et établir des corrélations entre elles. Big data, l’enjeu du pouvoir Le Big Data, Le Cloud … Internet évolue maintenant si vite que ses nouveaux développements deviennent des enjeux majeurs avant même que le grand public ait eu le temps de les comprendre. Nous nous retrouvons donc à employer, lire, entendre mentionner des terminologies désignant des concepts ou des technologies dont nous savons qu’elles sont cruciales, sans pour autant avoir la moindre idée de leur nature. Un nom qui fait peur, pour un concept bien simple Au même titre que la mystérieuse appellation “Cloud” désigne tout simplement le stockage de données sur des serveurs distants mais bien réels, le concept de “Big Data” recouvre une réalité somme toute assez simple. Depuis une décennie, le volume et la variété des données informatiques que nous produisons ainsi que la rapidité avec laquelle nous les stockons et traitons ont littéralement explosés.

- Comment ne pas sombrer sous l’information ? Le flot continu de l’info – Crédit ©steeljam via flickr.com Nous n’avons jamais eu autant de sources d’information à notre disposition. Des dizaines de chaînes de télé, des encyclopédies en ligne, des journaux gratuits sur Internet. Big Data : pourquoi nos métadonnées sont-elles plus personnelles que nos empreintes digitales A l’occasion du colloque « la politique des données personnelles : Big Data ou contrôle individuel « organisé par l’Institut des systèmes complexes et l’Ecole normale supérieure de Lyon qui se tenait le 21 novembre dernier, Yves-Alexandre de Montjoye (@yvesalexandre) était venu présenter ses travaux, et à travers lui, ceux du MediaLab sur ce sujet (Cf. « D’autres outils et règles pour mieux contrôler les données » ). Yves-Alexandre de Montjoye est doctorant au MIT. Il travaille au laboratoire de dynamique humaine du Media Lab, aux côtés de Sandy Pentland, dont nous avons plusieurs fois fait part des travaux. Nos données de déplacements sont encore plus personnelles que nos empreintes digitales

Big Data : définition, enjeux et études de cas l Data-Business.fr La Vénérable grille de lecture établie en 2001 par Doug Laney du cabinet Gartner – les fameux 3V du Big Data – fait encore référence. Les 3V, ce sont le Volume (des échanges de plus en plus massifs), la Variété (plus de types de contenus) et la Vélocité (la collecte et le traitement en temps-réel). Depuis, d’autres ont essayé d’approfondir le sujet, en incluant des éléments comme la Validité, la Véracité, la Valeur ou la Visibilité des data. Le Big Data, c’est d’abord l’explosion du VOLUME de données, qui met à l’épreuve les infrastructures de stockage classiques des des entreprises D’après le magazine Fortune: Des dinosaures jusqu’en 2003 nous avions créé, en tout, 5 exabytes de données (5 Mds de GB). En 2011, nous générions 5 exabytes en 2 jours seulement.En 2013, on estime qu’il nous faudra moins de 10mn pour produire 5 exabytes.

Data centers: la donnée écolo Il y en a des milliers dans le monde. Plus d’une centaine en France. Les data centers sont la face cachée d’Internet ; on y a recours tous les jours. Quand on consulte un site web, quand on envoie un mail, quand on publie une photo en ligne. Toutes ces données sont traitées et stockées dans ces immenses usines du numérique, alignant des armées de serveurs qui n’ont rien de virtuel. Et cela demande de l’énergie. Le massacre des classes moyennes Le secteur privé est désormais incapable de créer, en nombre, des emplois correctement rémunérés. Ce constat, presque en forme d’autocritique, nous vient des Etats-Unis. Depuis quelques semaines, on voit fleurir outre-Atlantique des études, des livres, qui tentent d’analyser les raisons de cette disparition, de cette évaporation des emplois dans le secteur manufacturier, des emplois de la classe moyenne. En dix ans, l’industrie manufacturière américaine a perdu plus de cinq millions d’emplois. Pourquoi une telle hémorragie ? La réponse tient en deux mots : trade and technology.

Pourquoi nous aimons les données ! Publié le 21 juillet 2014 Aujourd’hui, grâce à la science et l’informatique, les données sont partout et permettent tant de modéliser le climat, que d’anticiper les comportements des consommateurs. C’est sûrement formidable pour certains, mais pas forcément toujours très rassurant…

Related: