background preloader

La mine d'or du Big Data

La mine d'or du Big Data
LE MONDE ECONOMIE | • Mis à jour le | Par Julie Battilana, professeure associée à la Harvard Business School L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple, de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. C'est donc un véritable marché, désigné par le vocable anglo-saxon "Big Data", qui a émergé autour de l'exploitation de la masse de données informatiques disponibles. Cette approche leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts.

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM. Ces données, de plus en plus d'entreprises cherchent à les exploiter. Du coup, des éditeurs de logiciels informatiques ont mis au point des techniques empruntées au calcul scientifique pour "mouliner toutes ces données" de manière exhaustive.

Pour de nouveaux principes de confidentialité des données A l'heure des Big Data, la protection et la confidentialité des données sur Internet fait plus que jamais l'objet de nombreux débats. En quête de nouveaux principes, les spécialistes veulent sensibiliser les individus et responsabiliser les organisations. Dans leur rapport publié ce mardi, Peter Cullen, chef de la stratégie de la confidentialité chez Microsoft, Fred Cate, professeur à l'université de l'Indiana, et Viktor Mayer-Schönberger, professeur à l'Oxford Internet Institute se sont penchés sur la question afin de définir de nouveaux principes de confidentialité des données. > De la responsabilité des individus à celle des organisations Selon les auteurs du rapport, les nouvelles approches de la confidentialité sur Internet s'accordent sur la nécessité de déplacer la responsabilité des individus concernant leurs données vers les organisations qui les utilisent. > Définir l'utilisation des données > Pour une définition collaborative des principes de confidentialité

Big Data, grande illusion La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Mitchell ne conteste pas l'utilité des Big Data, il en conteste la nouveauté et le degré de priorité dans les agendas de recherche et d'investissement. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture. Alan Mitchell n'a pas entièrement raison.

Pour mieux comprendre le Big Data The concept of Big Data is seen as one of the key technology issues of the decade – so what exactly is it for? Zettabytes (1021) of data – millions billions of bytes of information First coined in the early Noughties and identified by analysts as a major technology trend since 2010, the term Big Data refers to huge volumes of digital data, and the storing and analysis thereof. For example, according to French financial daily Les Echos, aeroplane sensors generate 1 petabyte (1015) of data for a flight between Spain and Saudi Arabia: the equivalent capacity of 20,000 50 GB PCs. In 2008, Google was already producing 20 petabytes a day. By users of connected devices (on PCs, tablets, smartphones, TVs), via written messages, videos, sound, and photosBy smart objects (GPS, sensors, RFID chips, QR codes, etc.)In real timeIn a variety of forms Hence the 3 Vs of volume, velocity and variety which are commonly used to characterise different aspects of big data. What is Big Data used for?

Du rôle prédictif des données à la gouvernementalité algorithmique Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données. Réécouter l’émission en ligne, ou parcourez le transcript augmenté de liens. Il y a de multiples formes de données, rappelle en préambule Xavier de la Porte : données sociales, messages, commentaires, celles qu’on publie chez les autres ou que les autres publient sur soi. Il y a bien sûr les données comportementales : celles qui mesurent ce que vous faites sur l’internet, les données géographiques, les données publiques, les données privées. Erick Alphonse : Oui.

Energie, pollution et internet La lecture de la semaine provient du New York Times, il s’agit du premier article d’une série consacrée au coût écologique du Cloud computing (informatique dans les nuages, le fait que nos données soient stockées, non pas dans les nuages, mais dans des infrastructures très matérielles). Le titre “Energie, pollution et Internet”, ce début d’article fait un résumé de la longue enquête du quotidien américain. “Des dizaines de milliers de data center (gigantesques bâtiments abritant des serveurs) sont aujourd’hui nécessaire pour supporter l’explosion de l’information numérique. Des quantités gigantesques de données sont mises en circulation chaque jour lorsque, d’un simple clic ou au contact du doigt, les gens téléchargent des films sur iTunes, regardent l’état de leurs comptes sur le site de leur banque, envoient un mail avec une pièce jointe, font leurs courses en ligne, postent un message sur Twitter ou lisent un journal en ligne.” Xavier de la Porte

Big Data : les progrès de l’analyse des données Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu. La démultiplication des outils de collecte de données (comme le web ou nos téléphones mobiles qui enregistrent très facilement nos déplacements, mais également nos actions, nos relations…) et l’amélioration des outils d’analyses de données offrent aux entreprises des moyens marketing de plus en plus inédits, estime Lee Gomes pour la Technology Review. Les raisons de la révolution

Big Data : le grand déséquilibre Pour Stéphane Grumbach (blog, @sgrumbach), directeur de recherche à l’Inria, les Big Data sont désormais un sujet important et dont les enjeux sont régulièrement médiatisés, comme le soulignait la semaine dernière le New York Times en s’intéressant à la consommation énergétique des centres de données. Souvent, le sujet est abordé sous l’angle (important) de la protection des données personnelles. Sur la scène de Lift France 2012, Stéphane Grumbach propose lui de l’aborder sous l’angle de la géographie. Est-ce que l’endroit où se trouvent les données est important ? Le sujet semble iconoclaste, car la caractéristique même de ces données numériques est d’être par essence reproductibles, liquides, disponibles partout et tout le temps… Pas si sûr estime le chercheur (voir sa présentation). La taille de l’univers numérique est estimée à 2,7 Zettabytes de données et il devrait atteindre 35 Zettabytes en 2020. Le second est de tirer du sens des données, comme le fait le profilage.

Centres de données – Google Centres de données Retour Lorsque vous consultez un site Web de Google (comme en ce moment), vous accédez à l'un des réseaux de serveurs les plus puissants au monde. Mais à quoi ressemble ce réseau en réalité ? Voici l'occasion de voir Internet de l'intérieur. Qui se cache dans les coulisses de la vaste toile mondiale que nous appelons Internet ? Que faut-il pour héberger le Web dans de bonnes conditions ? Chez Google, nous nous efforçons depuis des années d'optimiser la conception de nos centres de données afin de réduire notre empreinte écologique. Dans notre centre de données de Pryor en Oklahoma, nous avons tissé des liens étroits avec la communauté des Indiens Cherokee. L'une des raisons pour lesquelles nous avons choisi la ville de Lenoir en Caroline du Nord tient à son passé de ville manufacturière dans l'industrie du meuble. Notre centre de données de Belgique est particulier, car il est le premier à fonctionner sans refroidisseurs à eau.

Le cloud computing : quelques exemples d'utilisation Dans le cadre de notre dossier sur le cloud computing, nous avons réalisé une infographie détaillant les utilisations possibles du nuage au travers de quatre exemples : dans une start-up, dans une PME, à la maison et dans une mairie. Nous vous proposons de la découvrir ci-dessous : > En résumé : Dans une start-up, le nuage permet de se concentrer sur le cœur de son activité. Dans une PME, le nuage permet d’avoir accès à de nombreux services logiciels sans pour autant avoir besoin d’investir dans des infrastructures informatiques spécifiques. A la maison, le nuage est déjà là, par exemple en consultant nos emails, en archivant des vidéos ou des photos sur le Web ou encore en discutant sur les réseaux sociaux. Dans une mairie, le nuage permet de mettre très rapidement de nouveaux services à la disposition des citoyens, grâce à un catalogue d’applications en ligne qu’il suffit de choisir et de personnaliser pour pouvoir les utiliser. > Qu’est-ce que le cloud computing ? > Pour aller plus loin :

Google transforme ses datacenters en galeries d'art Crédit: D.R Des dizaines de photographies postées sur le site de Google montrent ses datacenters sous un autre angle. Les photos des datacenters que Google vient de publier pourraient avoir leur place dans une galerie d'art plutôt que dans un manuel technique. A l'intérieur de la rubrique «Dans les coulisses d'Internet », la firme de Moutain View a publié des dizaines d'images en couleur qui dépeignent une partie de la technologie, des endroits et des personnes qui garantissent le fonctionnement de ces services. Il existe une ou deux photos qui montrent la façon d'opérer de ses centres de calcul, comme la prise de vue d'une vaste bibliothèque de bandes de sauvegarde dans une usine de Caroline du Sud, où des bras robotisés qui stockent les bandes et les récupèrent quand celles-ci sont nécessaires. Google a fait appel au photographe Connie Zhou, une artiste née à Shanghai, spécialisée dans l'architecture et les intérieurs, pour réaliser ce reportage.

En 2016, l'Inde et la Chine succéderont à la Silicon Valley ? En 2016, la Chine et l'Inde s'imposeraient comme les nouveaux pôles leaders des industries technologiques selon un sondage réalisé pour KPMG , cabinet d'audit et de conseil. Près de la moitié des dirigeants issus d'entreprises des technologies de l'information et de la communication sondés estime que la Chine remplacera la Silicon Valley dans le domaine des nouvelles technologies en 2016. L'Inde de son côté deviendrait leader dans l'innovation. > Les plans quinquennaux, recette du succès ? Selon Ho Wah Lee, directeur de KPMG Singapour, différentes raisons expliquent la relève chinoise: "Le gouvernement encourage les investissements massifs dans trois secteurs clés: le partage de services, l'externalisation et le cloud computing. Les dirigeants chinois ont déjà investi 154 milliards de dollars afin d'encourager le cloud computing dans les cinq prochaines années.

Intel et Facebook s'allient pour développer les serveurs photoniques de demain Intel et Facebook s'allient pour développer les serveurs photoniques de demain Intel vient de s'allier avec Facebook pour concevoir la prochaine génération de serveurs utilisés pour stocker les bases de données. Dans le cadre de cette collaboration, ces entreprises ont également dévoilé un prototype construit par Quanta Computer qui repose sur une nouvelle architecture innovante utilisant des modules photoniques. Selon Justin Rattner, responsable de ce projet chez Intel, "Cette nouvelle architecture photonique, basée sur large bande passante de 100 Gbps, va sensiblement améliorer la capacité des réseaux, tout en diminuant leur consommation d'énergie et leur maintenance." Cette nouvelle architecture est l'aboutissement de plus de 10 ans de recherche pour concevoir des composants en silicium à base de dispositifs photoniques, qu'il s'agisse de lasers, de modulateurs et de détecteurs, et pour articuler de manière plus efficace électronique et photonique. Phys.Org Noter cet article :

Related: