background preloader

Vertigineux "big data"

Vertigineux "big data"
Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM. Ces données, de plus en plus d'entreprises cherchent à les exploiter. Du coup, des éditeurs de logiciels informatiques ont mis au point des techniques empruntées au calcul scientifique pour "mouliner toutes ces données" de manière exhaustive.

La mine d'or du Big Data LE MONDE ECONOMIE | • Mis à jour le | Par Julie Battilana, professeure associée à la Harvard Business School L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple, de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. C'est donc un véritable marché, désigné par le vocable anglo-saxon "Big Data", qui a émergé autour de l'exploitation de la masse de données informatiques disponibles. Cette approche leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts.

Big Data, grande illusion La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. La statistique fournit une manière extraordinairement puissante et utile de remettre en questions les suppositions et les inférences que les cerveaux humains produisent naturellement – et souvent de manière erronée. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture.

Du rôle prédictif des données à la gouvernementalité algorithmique Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données. Réécouter l’émission en ligne, ou parcourez le transcript augmenté de liens. Il y a de multiples formes de données, rappelle en préambule Xavier de la Porte : données sociales, messages, commentaires, celles qu’on publie chez les autres ou que les autres publient sur soi. Xavier de la Porte : Quels sont les modèles prédictifs ? Une autre étude récente a utilisé Twitter pour tenter d’anticiper de deux-trois jours les cours du Down Jones. Erick Alphonse : Oui.

Big Data : les progrès de l’analyse des données Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu. Après un retour sur l’article fondateur de Chris Anderson, regardons un peu ce que les Big Data permettent d’envisager. Vers le commerce algorithmique La tarification dynamique est bien connue des sociétés de transports qui vous proposent des tickets moins chers si vous réservez longtemps avant la date de votre voyage. Image : le déluge de données vu par The Economist.

Centres de données – Google Centres de données Retour Lorsque vous consultez un site Web de Google (comme en ce moment), vous accédez à l'un des réseaux de serveurs les plus puissants au monde. Mais à quoi ressemble ce réseau en réalité ? Voici l'occasion de voir Internet de l'intérieur. Qui se cache dans les coulisses de la vaste toile mondiale que nous appelons Internet ? Que faut-il pour héberger le Web dans de bonnes conditions ? Chez Google, nous nous efforçons depuis des années d'optimiser la conception de nos centres de données afin de réduire notre empreinte écologique. Dans notre centre de données de Pryor en Oklahoma, nous avons tissé des liens étroits avec la communauté des Indiens Cherokee. L'une des raisons pour lesquelles nous avons choisi la ville de Lenoir en Caroline du Nord tient à son passé de ville manufacturière dans l'industrie du meuble. Notre centre de données de Belgique est particulier, car il est le premier à fonctionner sans refroidisseurs à eau.

Google transforme ses datacenters en galeries d'art Crédit: D.R Des dizaines de photographies postées sur le site de Google montrent ses datacenters sous un autre angle. Les photos des datacenters que Google vient de publier pourraient avoir leur place dans une galerie d'art plutôt que dans un manuel technique. A l'intérieur de la rubrique «Dans les coulisses d'Internet », la firme de Moutain View a publié des dizaines d'images en couleur qui dépeignent une partie de la technologie, des endroits et des personnes qui garantissent le fonctionnement de ces services. Il existe une ou deux photos qui montrent la façon d'opérer de ses centres de calcul, comme la prise de vue d'une vaste bibliothèque de bandes de sauvegarde dans une usine de Caroline du Sud, où des bras robotisés qui stockent les bandes et les récupèrent quand celles-ci sont nécessaires. Google a fait appel au photographe Connie Zhou, une artiste née à Shanghai, spécialisée dans l'architecture et les intérieurs, pour réaliser ce reportage.

Intel et Facebook s'allient pour développer les serveurs photoniques de demain Intel et Facebook s'allient pour développer les serveurs photoniques de demain Intel vient de s'allier avec Facebook pour concevoir la prochaine génération de serveurs utilisés pour stocker les bases de données. Dans le cadre de cette collaboration, ces entreprises ont également dévoilé un prototype construit par Quanta Computer qui repose sur une nouvelle architecture innovante utilisant des modules photoniques. Selon Justin Rattner, responsable de ce projet chez Intel, "Cette nouvelle architecture photonique, basée sur large bande passante de 100 Gbps, va sensiblement améliorer la capacité des réseaux, tout en diminuant leur consommation d'énergie et leur maintenance." Cette nouvelle architecture est l'aboutissement de plus de 10 ans de recherche pour concevoir des composants en silicium à base de dispositifs photoniques, qu'il s'agisse de lasers, de modulateurs et de détecteurs, et pour articuler de manière plus efficace électronique et photonique. Phys.Org Noter cet article :

Le déluge de données va-t-il rendre la méthode scientifique obsolète ? Le déluge de données va-t-il rendre la méthode scientifique obsolète ? Nous voici entrés dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'informations doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Selon Chris Anderson, nous sommes à la fin de la science, de la science telle que nous la connaissons. Par exemple, Google a conquis le monde de la publicité avec rien de plus que des mathématiques appliquées. Le Monde Noter cet article : Vous serez certainement intéressé par ces articles : Recommander cet article : Envoyer à un ami

Le Web a 20 ans et pèse déjà très lourd dans l'économie Le Web a 20 ans et pèse déjà très lourd dans l'économie La "Toile" fête ses vingt ans. La filière Internet représente près de 3 % du PIB mondial. Un poids qui devrait s'accroître, au regard des évolutions attendues, comme le développement des objets connectés. Le Web "grand public" a vingt ans. Vingt ans plus tard, la percée et l'apport du Web sont phénoménaux. Nul doute que le poids du Web dans l'économie va s'accroître encore, au regard de ses évolutions attendues. Cyber-Criminalité Reid Hoffman, président et fondateur de LinkedIn, voit, lui, le Web 3.0 comme « l'ère des données ». La Tribune Noter cet article : Vous serez certainement intéressé par ces articles : Recommander cet article : Envoyer à un ami

Données le vertige Des flots d’octets, un océan de données, un déluge de connaissances… A mesure qu’Internet tisse sa toile, le volume d’informations numérisées n’en finit plus d’exploser. D’ici huit ans, cette masse vertigineuse de «datas» sera 50 fois supérieure à ce qu’elle est aujourd’hui, prédit le cabinet d’études IDC. Et il faudra dix fois plus de serveurs informatiques pour espérer gérer cette déferlante. Pas par crainte d’être submergés, mais plutôt pour être en mesure de retrouver, d’extraire et d’exploiter cette nouvelle manne. Il y a vingt ans, nous stockions encore nos fichiers sur des disques durs de quelques mégaoctets (1 Mo équivaut à 1 000 000 d’octets, soit 106 octets, 1 octet valant 8 bits ; le bit est l’unité de base en informatique, à savoir un 0 ou un 1). Photo: Emmanuel Pierrot.Vu pour Libération «Capteurs». C’est là qu’intervient une nouvelle discipline : le «big data». Mesagraph fournit ainsi à Canal + une modélisation de son audience à partir des conversations sur Twitter.

La mia Cura Open Source / My Open Source Cure 13 Sett. 2012 Stiamo per cominciare a caricare tutti i vostri meravigliosi contributi! Appariranno qui sul sito, insieme a formare la Cura. In più ci sono alcune notizie sul formato DICOM in cui erano memorizzati i dati delle analisi. Francesco Ponzin mi ha aiutato con gli estratti del CD. Il formato DICOM è, tecnicamente, un formato aperto. In pratica, i file che ho ricevuto erano codificati in maniera un po' particolare (stiamo per pubblicare un tutorial in merito). Di fatto io, nonostante non sia uno "sprovveduto tecnologico", ho avuto diverse difficoltà ad usare il formato, ad aprirlo, a distribuirlo, a "farci delle cose". Mi viene, ovviamente, in mente la situazione in cui si sarebbero trovate persone meno alfabetizzate per quel che riguarda tecnologie e reti: come suggerito inizialmente avrebbero, con tutta probabilità, dovuto mettere i CD in una busta, da spedire agli interessati per raccomandata, o qualcosa del genere. C'è molta speranza anche lì.

#praTIC : typologie des visualisations du web J’ai eu le plaisir de participer aujourd’hui à la journée PraTIC sur le thème Spatialité et Temporalité du Web, organisée par l’Atelier de Vidéomatique du Laboratoire Paragraphe (UP8), en partenariat avec l’école des Gobelins. Map Marquer - Noun Project Le thème de mon intervention était : Visualisation interactive de données, nouveaux outils et nouvelles mécaniques cognitives pour comprendre le web. Ma présentation interroge les différentes façons de visualiser le web en tant que paysage informationnel. I have met people who have never seen a world map. Les moteurs recherche de Google (ou autres) nous permettent de chercher et d’accéder aux contenus. Néanmoins, s’il n’existe pas de carte globale de l’information sur le web, il existe de nombreuses visualisations du web, et de ses ressources. Pour le besoin de mon petit exposé j’ai esquissé une typologie des cartographies et visualisations du web, et me suis amusée à la représenter sous la forme… d’une carte. 2. à la focale temporelle.

Related: