background preloader

Les big data : Far West informationnel

Les big data : Far West informationnel
Qu’est-ce que les big data ? Quels en sont les acteurs et les usages ? Pierre-Michel Menger et Simon Paye analysent l’économie de ces nouveaux flux informationnels qui transforment les pratiques de marketing et de consommation, mais peut-être aussi les sciences sociales. Depuis quelques années, la nouvelle économie des « big data » se structure autour d’un flux rapide d’innovations et d’applications destinées à stocker, analyser, visualiser et échanger les traces d’activités des consommateurs, ainsi que les traces numériques des utilisateurs d’internet. Parce qu’elles permettent de profiler les usagers pour prédire leurs comportements et de persuader les consommateurs de réaliser les anticipations suggérées, ces traces constituent aux yeux des entreprises un gisement informationnel hautement valorisable. Ces données numériques de masse intéressent également la recherche en sciences sociales. Prise de vue et montage : Cristelle Terroni Related:  BIGDataDataprojet 2015

Base d’adresse : union de raison entre l’IGN et OpenStreetMap Le 17 novembre, l'IGN, La Poste et OpenStreetMap ont annoncé leur union de raison autour de la Base adresse nationale (BAN), sous l'oeil bienveillant du secrétaire d'Etat chargé de la réforme de l'Etat et d'Henri Verdier, administrateur général des données. Tous les jours, vous utilisez une base de données d'adresse. Lorsque vous réclamez à votre GPS de vous proposer un trajet entre deux points, il faut pouvoir géocoder l'adresse d'arrivée – c'est à dire transformer le numéro et le nom de la rue en un point géographique défini par une latitude et une longitude et éventuellement une altitude : c'est le travail de cette base de donnée. Des bases de données commerciales existent, comme celle de Google par exemple. Parallèlement, face à ces bases de données coûteuses et fermées, l'association OpenStreetMap proposait de créer une base de données ouverte (BANO). Que devient l'IGN, garant des adresses, si l'Etat soutient une initiative ouverte mais néanmoins concurrente ? Alexandre Léchenet

Les journalistes vont-ils se noyer dans le Big Data Ecran de code binaire pendant le "CeBIT" (salon des technologies de l'information et de la bureautique) à Hanovre, février 2000 Peter Mueller © Reuters Autrefois, l’infiniment grand pouvait se mesurer en nombre de terrains de football ou en hauteurs de tour Eiffel. Un nouveau centre commercial à Dubaï : l’équivalent de 46 terrains de foot. La circonférence de la Terre : 133 000 tours Eiffel mises bout à bout. Aujourd’hui, avec le Big data (les mégadonnées), l’infiniment grand se calcule en gigaoctets et au nombre de smartphones qu’il faut pour les héberger. Une étude américaine nous apprenait ainsi il y a quelques mois que si le volume annuel de données produites par chaque foyer peut rentrer aujourd’hui « dans 65 iPhones », il en faudra 318 du même calibre en 2020. L’avenir appartient donc à ceux qui sauront la trier et l’exploiter. « Les journalistes vont-ils se noyer dans le Big data ? Caroline Goulard, Pierre Romera, Sandra Moatti, Benjamin Lagues JCF © Radio France Data Journalisme Lab

Télécom ParisTech renforce ses formations big data Télécom ParisTech enrichit son offre de formations spécialisées proposées dans le cadre de sa chaire dédiée au Machine Learning. Trois formations sont désormais ouvertes et visent à pourvoir spécifiquement aux besoins des entreprises confrontées au défi actuel des masses de données. Après le lancement du Mastère Spécialisé « Big Data : Gestion et Analyse des Données Massives » (proposé dès la rentrée 2013), Télécom ParisTech ouvre à la rentrée 2014 un Certificat d’Etudes Spécialisées « Data Scientist » pour les professionnels et s’est associée à l’Ecole polytechnique pour ouvrir le Master 2 « Mathématiques pour la science des masses de données ». Ces formations sont animées par des experts de la Chaire d’enseignement et de recherche « Machine Learning for Big Data ». Zoom sur les formations en Big Data Master « Mathématiques pour la science des masses de données » en partenariat avec l’Ecole polytechnique, l’Université de Paris-Sud et l’ENSAE ParisTech.

Traitement des données personnelles, les data paranos en plein essor toute l'actualité "Economie" Edition du 26/09/2014 - par Bertrand Lemaire Havas Media Group a mené une étude sur la perception des Français quant à l'exploitation de leurs données personnelles par les entreprises. « Aujourd'hui, une fille de seize ans peut contrôler exactement son image sur Facebook comme Beyoncé, en choisissant les bonnes photos, les bons selfies » a affirmé Raphaël De Andréis, directeur général d'Havas Media Group [En photographie], en introduisant la présentation de l'étude « Les Français et leurs données personnelles : quelle place pour les marques ? Améliorer le ciblage mais sous conditions Le travail autour de la stratégie DDOG a commencé avec un constructeur automobile. Une prise de conscience mais pas nécessairement une allergie A propos de l'étude L'étude « Les Français et leurs données personnelles : quelle place pour les marques ?

ZONES Pourtant, si aujourd’hui on reproche volontiers aux statistiques leur connivence avec le pouvoir et la sanction, l’histoire de leurs liens avec la réforme sociale et l’émancipation est tout aussi longue et riche. Les statistiques ont aussi, par le passé, montré qu’une autre réalité était possible ou ont rendu d’autres possibilités réelles. C’est pourquoi nous ne réagissons pas comme ceux qui les rejettent en bloc et crient « Non à la quantophrénie ! Non aux chiffres ! Le statactivisme a un sens élargi et un sens restreint. Pour faire face à cette gouvernementalité qui s’infiltre dans de très nombreux mondes habituellement cloisonnés, le statactivisme permet de dépasser les frontières instituées. Si le statactivisme consiste à mettre les statistiques au service de l’émancipation, on peut distinguer quatre grandes manières de faire. 1. L’histoire du lien entre statistique et émancipation sociale est ancienne. 2.

Datavisualization.ch Selected Tools Jeremy Rifkin : “Ce qui a permis le succès inouï du capitalisme va se retourner contre lui” Il y a vingt-cinq ans, c'était la star du ring, le « boss », vainqueur du communisme par K-O ! Aujourd'hui, le capitalisme est un champion usé par la crise, miné par les contradictions et politiquement à bout de souffle. Pour l'économiste américain Jeremy Rifkin, nous assistons, tout simplement, à son éclipse. Dans un livre passionnant – La Nouvelle Société du coût marginal zéro – en librairie le 24 septembre 2014, il raconte le basculement, inévitable, que nous avons déjà commencé à opérer vers un nouveau système de production et de consommation : les « communaux collaboratifs ». Nous nous éveillons, dites-vous, à « une nouvelle réalité – celle des communaux collaboratifs ». “J’ai découvert l’existence d’un paradoxe profondément enfoui au cœur du capitalisme, et qui n’avait pas encore été mis au jour.” Qu'est ce qui provoque ce changement de paradigme ? C'est pourtant ce qu'il se passe ? Et aujourd'hui ? “Le soleil et le vent sont gratuits, il suffit de les capturer.

Quelle informatique pour soutenir les Big Data dans les années à venir ? Avec la digitalisation grandissante et le déluge informationnel, des pans entiers de l’économie sont bouleversés par des innovations disruptives rendues possibles par le traitement des Big Data. Mais les machines actuelles seront-elles assez puissantes pour relever les défis de plus en plus ambitieux de la Data Science et de notre société du tout digital ? Bruno Teboul, Directeur Scientifique, R&D et Innovation du groupe Keyrus, et Taoufik Amri, Lead Data Scientist, Consultant et Conférencier, répondent à cette question à travers un article d’analyse prospective* qui présente ensuite deux solutions prometteuses et complémentaires que l’on appelle aujourd’hui le Calcul Quantique Adiabatique et l’Informatique Cognitive, qui vont bouleverser les capacités de traitement des Big Data et entraîner de véritables mutations technologiques de l’informatique et de ses machines dans un avenir proche. Une architecture mal adaptée à l’intelligence artificielle

The Cathedral of Computation Algorithms are everywhere, supposedly. We are living in an “algorithmic culture,” to use the author and communication scholar Ted Striphas’s name for it. Google’s search algorithms determine how we access information. Facebook’s News Feed algorithms determine how we socialize. Netflix’s and Amazon’s collaborative filtering algorithms choose products and media for us. Here’s an exercise: The next time you hear someone talking about algorithms, replace the term with “God” and ask yourself if the meaning changes. It’s part of a larger trend. The worship of the algorithm is hardly the only example of the theological reversal of the Enlightenment—for another sign, just look at the surfeit of nonfiction books promising insights into “The Science of…” anything, from laughter to marijuana. In fact, our purported efforts to enlighten ourselves about algorithms’ role in our culture sometimes offer an unexpected view into our zealous devotion to them. Take the machine. Algorithms aren’t gods.

Related: