background preloader

Big Data, grande illusion

Big Data, grande illusion
La cause serait entendue : après le cloud computing et l’internet des objets, les « big data » constitueraient la prochaine « révolution » apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n’est pas d’accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d’une informatique productiviste, centralisatrice, centrée sur les grandes organisations. « Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. La statistique fournit une manière extraordinairement puissante et utile de remettre en questions les suppositions et les inférences que les cerveaux humains produisent naturellement – et souvent de manière erronée. C’est formidable. « Mais le principal déficit que rencontre notre société ne réside pas dans la capacité de traiter un grand nombre de données, bien au contraire. Et pourquoi pas ?

http://www.internetactu.net/2012/04/11/big-data-grande-illusion/

Related:  Big Data

Loodies scrute les comportements mobiles Loodies, start-up spécialisée en contenus ludiques et interactifs sur mobile, a décidé de faire entrer les marques dans la peau de leurs clients mobiles. Spécialisée dans l'analyse des comportements sur les nouveaux supports, elle a conçu Yummy Users, une plateforme permettant aux concepteurs d’applications de comprendre les usages de leurs clients, un service de mesure d’audience et des comportements utilisateurs destiné aux applications mobiles. A la différence de certains outils d’analyse existants qui se fondent sur un comptage en termes de pages vues, Yummy Users adopte un point de vue centré sur l’utilisateur, en suivant chaque personne à chacune de ses interactions. «Nos solutions permettent de visualiser en quelques secondes où se trouve leur cœur de cible, comment se comportent ces personnes, et quoi leur proposer en termes de contenu, de produit ou de service.

Le traitement de Big Data au service de la performance Pour faire face au traitement de grandes données, Autonomy lance deux nouvelles solutions qui les analysent, les classent et les rend intelligibles automatiquement et en temps réel. Faire face à des données nombreuses, complexes et provenant de sources diverses n'est pas nouveau pour l'entreprise. Ce qui l'est, ce sont les solutions qui naissent pour les traiter, les analyser et, surtout, les utiliser pour améliorer ses performances. C'est, par exemple, ce que fait l'entreprise Autonomy, éditeur de logiciels d'entreprise, en lançant NewSocial 24x7 et MultiMedia Broadcast Monitoring, deux logiciels à destination des entreprises pour les aider à mieux gérer et exploiter d'énormes masses de données.

L'avènement du Big Data : une (r)évolution ? Le Big Data, une révolution dans la gestion et le traitement des données ! Amis créateurs de start-up, voilà l'un des défis pour 2013. Investessor attend vos projets ! Il est difficile de contester la complexification de nos sociétés modernes : mondialisation, croissance continue d'une population dont les besoins intrinsèques augmentent, amélioration globale des niveaux de vie et d'éducation. Dans ce paradigme évolutif, les organisations humaines (institutions, communautés, entreprises) sont aujourd'hui contraintes de s'appuyer sur des méthodes innovantes d'analyse des données pour rester réactives, adaptatives, rigoureuses et précises dans l'accomplissement des tâches qui leur sont affectées.

Les enjeux de l’extension de l’Open Data au monde de l’entreprise « Ainsi donc, nous souhaitons étendre le nombre et la diversité des données réutilisables. Mais pourquoi, en fait ? Pourquoi, en particulier, les entreprises contribueraient-elles à l’Open Data ? » C’est avec cette question que Daniel Kaplan, délégué général de la Fondation internet nouvelle génération, entamait son intervention de synthèse de la session sur l’Open Data appliquée au monde de l’entreprise pendant la semaine européenne de la réutilisation des données publiques qui se tenait à Nantes du 21 au 26 mai 2012. « Certes, beaucoup d’entreprises veulent agir en bons citoyens, mais cette motivation ne peut pas leur suffire… » Nous n’avons jamais pris les données au sérieux « Nous n’avons jamais pris les données au sérieux et aujourd’hui, elles se vengent », estime Daniel Kaplan.

« Comment la CNIL devrait-elle aborder l’Open Data ? » par François Bancilhon Chainage avant vs. chainage arrière, séparation des données et des applications, et CNIL vs. Open Data : voici le point de vue de François Bancilhon sur la manière dont la CNIL devrait aborder les questions d’Open Data. Chainage avant et arrière Il existe en démonstration automatique deux méthodes différentes pour démontrer un fait : On part du fait et on construit la démonstration en marche arrière en postulant des faits qui impliqueraient le fait à démontrer, puis on fait la même chose pour les faits en question et si on trouve à un moment que tous ces faits postulés sont vrais, la démonstration est terminée. C’est ce que l’intelligence artificielle appelle le « chaînage arrière ».Inversement, on peut partir des faits connus et déduire tout ce qui est possible à partir de ces faits.

Avis d’expert : Big Data, de la Business Intelligence à la Business Analytics Avec cet avis d’expert, Nicolas Eimery, directeur du pôle de compétences performance management & business intelligence de Gfi Informatique, veut aller au-delà du buzz pour cerner les concepts sous-jacents du Big Data. Qu’est-ce que le Big Data ? Par Big Data, il faut entendre trois concepts liés : Le Big Data ne craint pas la crise Dans une note de recherche sur l’évolution des infrastructures et des dépenses IT engendrées par le Big Data jusqu’en 2016 – « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 » – les analystes du Gartner ont confirmé que les implémentations des solutions Big Data vont se prolonger dans un cycle accéléré jusqu’en 2020. L’étude a la particularité de ne pas prendre en compte les investissements et l’infrastructure matériels, nous revenons sur ce point dans notre interview de Roxane Edjali, analyste spécialiste du Big Data au Gartner. Pour l’année 2012, le Gartner a estimé les dépenses IT dans le Big Data à 28 milliards de dollars. Elles seront portées à 54,5 milliards en 2016. Au cumul elles devraient atteindre 232 milliards de dollars entre 2011 et 2016.

Avons-nous besoin d’Info Labs Grâce aux outils de prototypage rapide à commande numérique, à du matériel et du logiciel désormais facilement bricolables, demain, un grand nombre de personnes seront en mesure de concevoir et fabriquer des objets de leur choix, passant rapidement de l’idée au modèle numérique, du modèle au prototype, voire du prototype à l’objet tangible. C’est l’essence même du projet des Fab Labs (Wikipédia), ces espaces de travail, ces ateliers de fabrication ouverts et accessibles à tous. Mais pourquoi s’en tenir aux objets physiques et à la matière programmable ? La complexité de la matière numérique montre qu’on gagnerait certainement à étendre le concept aux données, aux statistiques, aux algorithmes… Et faire de la matière numérique un objet d’appropriation commun, comme les Fab Labs le proposent pour le monde physique.

Une nouvelle loi pour booster l’open data en Europe Cette nouvelle législation devrait permettre aux pays européens de partager plus librement les données à travers les frontières. Grâce à cette nouvelle loi, les informations du service public devraient être accessibles gratuitement et être ré-utilisées facilement par toutes les parties, rapporte The Verge. Cela comprend notamment, les données de météo, de cartographie, différentes statistiques ou encore les archives issues de différentes institutions comme les musées et les bibliothèques. 12/18 > BE Etats-Unis 313 > L'avènement du Big Data : une (r)évolution ? Sciences et technologies de l'information et de la communicationL'avènement du Big Data : une (r)évolution ? Il est difficile de contester la complexification de nos sociétés modernes : mondialisation, croissance continue d'une population dont les besoins intrinsèques augmentent, amélioration globale des niveaux de vie et d'éducation. Dans ce paradigme évolutif, les organisations humaines (institutions, communautés, entreprises) sont aujourd'hui contraintes de s'appuyer sur des méthodes innovantes d'analyse des données pour rester réactives, adaptatives, rigoureuses et précises dans l'accomplissement des tâches qui leur sont affectées.

Big Data : Making sense at scale D'un récent voyage dans la Silicon Valley (merci aux amis du Orange Institute), je rentre avec une conviction : tout ce que nous connaissions du web va changer à nouveau avec le phénomène des big data. Il pose à nouveau, sur des bases différentes, presque toutes les questions liées à la transformation numérique. En 2008, l’humanité a déversé 480 milliards de Gigabytes sur Internet. En 2010, ce furent 800 milliards de Gygabytes, soit, comme l’a dit un jour Eric Schmidt, plus que la totalité de ce que l’humanité avait écrit, imprimé, gravé, filmé ou enregistré de sa naissance jusqu’en 2003. Ces données ne sont pas toutes des oeuvres. Outre les blogs, les textes, les vidéos (35 millions sont regardées sur Youtube chaque minute) ou le partage de musique, il y a désormais les microconversations, les applications géolocalisées, la production de données personnelles, la mise en ligne de données publiques, les interactions de l’Internet des objets...

Comment diagnostiquer les effets de sa campagne ? La question se pose depuis que la publicité existe : quel est son impact précis sur les comportements d’achat ? La société d’études de marché GfK va y répondre avec un nouvel outil, MediaScan Exposure Effect, solution qui permet aux annonceurs, régies et agences médias d'établir un diagnostic des effets d'une communication publicitaire. L’outil réunit deux expertises de l'analyse média : l'analyse "attitudinale", permettant de comprendre l'appréciation d'une communication ainsi que son impact sur la notoriété et l'image d'une marque (pour conduire à sa préférence), et l'analyse d'impact de cette même campagne sur le comportement d'achat de la cible. C'est donc le retour sur investissement média complet que MediaScan Exposure Effect mesure et permet d'optimiser pour les produits de grande consommation en utilisant un panel de 20 000 foyers représentatifs de la population française.

Peut-on être contre les big data ? L'article présente les thèses d'Alan Mitchell, le directeur de la stratégie du cabinet Ctrl+shift. Selon lui, "les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d’une informatique productiviste, centralisatrice, centrée sur les grandes organisations." L'effort consenti - notamment en R&D - pour développer cette informatique et ses applications aurait été mieux employé à développer le pouvoir de création des individus, et à les aider à produire eux-mêmes les arbitrages qui leurs sont proposés par cette informatique massive.

Related: