background preloader

Big Data, grande illusion

Big Data, grande illusion
La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. La statistique fournit une manière extraordinairement puissante et utile de remettre en questions les suppositions et les inférences que les cerveaux humains produisent naturellement – et souvent de manière erronée. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture.

La mine d'or du Big Data LE MONDE ECONOMIE | • Mis à jour le | Par Julie Battilana, professeure associée à la Harvard Business School L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple, de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. C'est donc un véritable marché, désigné par le vocable anglo-saxon "Big Data", qui a émergé autour de l'exploitation de la masse de données informatiques disponibles. Cette approche leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts.

Energie, pollution et internet La lecture de la semaine provient du New York Times, il s’agit du premier article d’une série consacrée au coût écologique du Cloud computing (informatique dans les nuages, le fait que nos données soient stockées, non pas dans les nuages, mais dans des infrastructures très matérielles). Le titre “Energie, pollution et Internet”, ce début d’article fait un résumé de la longue enquête du quotidien américain. “Des dizaines de milliers de data center (gigantesques bâtiments abritant des serveurs) sont aujourd’hui nécessaire pour supporter l’explosion de l’information numérique. Des quantités gigantesques de données sont mises en circulation chaque jour lorsque, d’un simple clic ou au contact du doigt, les gens téléchargent des films sur iTunes, regardent l’état de leurs comptes sur le site de leur banque, envoient un mail avec une pièce jointe, font leurs courses en ligne, postent un message sur Twitter ou lisent un journal en ligne.” Xavier de la Porte

Guy Mamou-Mani: Innovation, numérique et compétitivité: nous sommes prêts! Il est d'usage d'envisager que le monde de l'entreprise reste un temps attentiste lors de l'installation d'un changement majeur de direction politique à la tête de notre pays. Mais je dérogerai cette fois-ci à la tradition, pour deux raisons: La première est que depuis mardi, des signaux forts ont été donnés par le nouveau Président de la République puis par son Gouvernement, qui résonnent positivement pour nous, industriels du numérique et de l'innovation. Le Président François Hollande, dans son discours d'investiture à l'Elysée, a ainsi clairement pris le contre-pied d'une campagne qui a fait peu de place aux thèmes de la compétitivité, de la production du numérique et de l'innovation, en déclarant dans le cadre de ses chantiers prioritaires qu' "il est temps de remettre la production avant la spéculation, l'investissement d'avenir avant la satisfaction du présent [...] qu'il est temps d'ouvrir une nouvelle frontière pour le développement technologique et l'innovation".

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM. Ces données, de plus en plus d'entreprises cherchent à les exploiter. Du coup, des éditeurs de logiciels informatiques ont mis au point des techniques empruntées au calcul scientifique pour "mouliner toutes ces données" de manière exhaustive.

Big Data : le grand déséquilibre Pour Stéphane Grumbach (blog, @sgrumbach), directeur de recherche à l’Inria, les Big Data sont désormais un sujet important et dont les enjeux sont régulièrement médiatisés, comme le soulignait la semaine dernière le New York Times en s’intéressant à la consommation énergétique des centres de données. Souvent, le sujet est abordé sous l’angle (important) de la protection des données personnelles. Sur la scène de Lift France 2012, Stéphane Grumbach propose lui de l’aborder sous l’angle de la géographie. Le sujet semble iconoclaste, car la caractéristique même de ces données numériques est d’être par essence reproductibles, liquides, disponibles partout et tout le temps… Pas si sûr estime le chercheur (voir sa présentation). La taille de l’univers numérique est estimée à 2,7 Zettabytes de données et il devrait atteindre 35 Zettabytes en 2020. Image : Stéphane Grumbach sur la scène de Lift France 2012, photographié par Loup Cellard pour la Fing. Présentation de Stéphane Grumbach.

1er rassemblement Dataconnexions Mercredi 30 mai 2012 3 30 /05 /Mai /2012 12:22 Mardi 29 mai s’est tenu le premier rassemblement Dataconnexions, chez Orange, avec les acteurs de l’innovation, et les premiers lauréats 2012. Tout au long de l’après midi, les échanges ont été intenses sur l’open data. Lors de la séance plénière, animée par Frédéric Simottel (01Informatique/BFM TV) François Bouvard, Directeur associé de McKinsey, a fait une présentation traitant de la pérennité de l’Open Data. Le Président du Jury, Philippe Collombel a quant à lui parlé des perspectives de croissance et des axes d’innovation majeurs pour l’avenir de l’open data. La table ronde a ensuite permis aux acteurs de l’innovation, partenaires de Dataconnexions, d’échanger leurs points de vue sur les approches les plus innovantes, et sur les perspectives de développement de services ou d’applications Open data spécifiquement liés à leur cœur de métier. Enfin, les 6 lauréats ont été nominés officiellement, il s’agit de : - Fourmisanté - Webshell - Home'n go

Du rôle prédictif des données à la gouvernementalité algorithmique Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données. Réécouter l’émission en ligne, ou parcourez le transcript augmenté de liens. Il y a de multiples formes de données, rappelle en préambule Xavier de la Porte : données sociales, messages, commentaires, celles qu’on publie chez les autres ou que les autres publient sur soi. Xavier de la Porte : Quels sont les modèles prédictifs ? Une autre étude récente a utilisé Twitter pour tenter d’anticiper de deux-trois jours les cours du Down Jones. Erick Alphonse : Oui.

Le cloud computing : quelques exemples d'utilisation Dans le cadre de notre dossier sur le cloud computing, nous avons réalisé une infographie détaillant les utilisations possibles du nuage au travers de quatre exemples : dans une start-up, dans une PME, à la maison et dans une mairie. Nous vous proposons de la découvrir ci-dessous : > En résumé : Dans une start-up, le nuage permet de se concentrer sur le cœur de son activité. Dans une PME, le nuage permet d’avoir accès à de nombreux services logiciels sans pour autant avoir besoin d’investir dans des infrastructures informatiques spécifiques. A la maison, le nuage est déjà là, par exemple en consultant nos emails, en archivant des vidéos ou des photos sur le Web ou encore en discutant sur les réseaux sociaux. Dans une mairie, le nuage permet de mettre très rapidement de nouveaux services à la disposition des citoyens, grâce à un catalogue d’applications en ligne qu’il suffit de choisir et de personnaliser pour pouvoir les utiliser. > Qu’est-ce que le cloud computing ? > Pour aller plus loin :

Interview de Julien Le Bot, co-fondateur et président de Yakwala | Exalead Blog Nouvelle gestion de l’Open Data, nouvelle mission gouvernementale (Etalab), nouvelles pratiques et nouveaux usages du SoLoMo… L’écosystème autour de l’information locale et hyperlocale est en marche ! Plus besoin de parcourir la Toile pour avoir des informations sur le commerçant situé en bas de chez soi. La géolocalisation qui accompagne ces concepts, devient l’atout majeur de cet écosystème prometteur : chacun devient non plus seulement son propre média, mais un vecteur de transmission de l’information. Yakwala, la toute jeune plate-forme d’information et d’interaction hyperlocales, l’a bien compris et s’apprête à occuper le terrain ! Sélectionnée par Exalead dans le cadre du concours de l’innovation lancé par Etalab – Dataconnexions – la startup est mise à l’honneur cette semaine. Focus sur un entretien décontracté avec Julien Le Bot, fondateur associé et président de Yakwala : • Pouvez-vous vous présenter, votre équipe et vous, en quelques mots ? • Quel est votre projet ?

Big Data : les progrès de l’analyse des données Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu. Après un retour sur l’article fondateur de Chris Anderson, regardons un peu ce que les Big Data permettent d’envisager. Vers le commerce algorithmique La tarification dynamique est bien connue des sociétés de transports qui vous proposent des tickets moins chers si vous réservez longtemps avant la date de votre voyage. Image : le déluge de données vu par The Economist.

Related: