background preloader

Comment le Big Data va révolutionner 2013

Comment le Big Data va révolutionner 2013
"2012 a été l'année de l'évangélisation, 2013 sera l'année de la mise en place." Chez Atos, géant international du service informatique, pas de doute : cette année verra la multiplication des systèmes d'analyse dits de "Big Data". Plus qu'un concept, cette "grosse quantité de données" (littéralement) renvoie à de nouveaux systèmes informatiques qui promettent de "révolutionner la vie quotidienne". Le Big Data a émergé face à un constat. Chaque jour, 2,5 trillions d'octets de données sont générés dans le monde. Ces informations proviennent de partout : réseaux sociaux, photos et vidéos publiées sur internet, signaux GPS des smartphones, indications climatiques captées à travers le monde, transactions bancaires, etc. "Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010", anticipe Chuck Hollis, directeur technique du leader mondial du stockage EMC et gourou du Big Data. Prédire les crises cardiaques Les applications du Big Data sont nombreuses.

http://obsession.nouvelobs.com/high-tech/20130103.OBS4353/comment-le-big-data-va-revolutionner-2013.html

Related:  big dataBig DataData MiningVeille techno

De la statistique aux big data : ce qui change dans notre compréhension du monde Par Hubert Guillaud le 19/12/12 | 9 commentaires | 4,776 lectures | Impression Lors de la dernière édition des Entretiens du Nouveau Monde industriel qui avaient lieu les 17 et 18 décembre 2012 au Centre Pompidou, le sociologue Dominique Cardon a proposé une intéressante matrice pour comprendre à la fois les limites de la réutilisation des données ouvertes et celle des “Big Data“. Nous sommes désormais confrontés à un incroyable déluge de données produit par le numérique, reconnaît Dominique Cardon. C’est ce qu’on appelle le Big Data. Les données semblent innombrables, proliférantes… Et vont demain nous en apprendre toujours plus sur nous-mêmes… Mais sont-elles nécessaires ?

Big Data : pourquoi nos métadonnées sont-elles plus personnelles que nos empreintes digitales A l’occasion du colloque "la politique des données personnelles : Big Data ou contrôle individuel " organisé par l’Institut des systèmes complexes et l’Ecole normale supérieure de Lyon qui se tenait le 21 novembre dernier, Yves-Alexandre de Montjoye (@yvesalexandre) était venu présenter ses travaux, et à travers lui, ceux du MediaLab sur ce sujet (Cf. "D'autres outils et règles pour mieux contrôler les données" ). Yves-Alexandre de Montjoye est doctorant au MIT. Il travaille au laboratoire de dynamique humaine du Media Lab, aux côtés de Sandy Pentland, dont nous avons plusieurs fois fait part des travaux. Nos données de déplacements sont encore plus personnelles que nos empreintes digitales

Vertigineux "big data" LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Depuis la démocratisation de l'Internet haut débit, ce sont des milliards de données qui sont déversées par les particuliers, les entreprises et même l'Etat sur la Toile. Les spécialistes appellent ça le "big data", littéralement "grosse donnée"... Ce vocable est un peu "marketing" : depuis dix-huit mois, pas une semaine ne passe sans un séminaire ou une nouvelle offre big data sur la planète high-tech. Mais il recouvre une réalité : la quantité de données envoyées, reçues, stockées toutes les secondes est devenue tellement importante qu'il est quasiment impossible de la traiter avec les outils d'analyse habituels.

Prototype de stockage des données sur du quartz par Hitachi Du disque de vinyle au Blu-ray en passant par la clé USB, les supports optiques et numériques ont tous fait leurs preuves à leur époque respective. Mais ces technologies du stockage ont toutes cédé leur place à une technologie améliorée et mieux adaptée aux besoins de la société. Bien que ces outils de stockage soient de plus en plus efficaces aucun d’entre eux ne peut résister aux fêlures du temps. Ils finissent toujours par se briser ou par devenir illisible. Cela coûte aux entreprises beaucoup d’argents pour la retranscription sur du nouveau matériel de stockage afin de conserver les données plus anciennes. Les gagnants et les perdants de la révolution Big Data. Par Romain Chaumais, Co-fondateur d’Ysance et directeur des opérations. Loin d’un simple buzz marketing, la révolution Big Data est en marche. Une déferlante qui risque de tout balayer sur son passage. A qui saura profiter le phénomène ?

Du Big Data au Valued Data - TRIBUNE Les articles, dossiers, tables rondes et conférences sur le big data se sont multipliés depuis quelques mois. De plus en plus de sociétés s’emparent du phénomène de mode pour revendiquer leur expertise du sujet et s’accaparer les centaines de millions, voire les milliards de dollars promis sur ce « nouveau » marché. Les modes se suivent et se ressemblent : le « tout CRM » à la fin des années 90, le « 1 to 1 » début 2000, le « web 2 »… A chaque fois, ces expressions sont synonymes d’avancées concrètes, d’outils innovants mais aussi de sur-promesses et de raccourcis.

ET SI LES BIG DATA NOUS OBLIGEAIENT À REPENSER NOTRE HUMANITE J’ai décidé de consacrer notre rubrique dominicale #JourDuPenseur au tout nouveau livre de mon ami Gilles Babinet intitulé « Big Data, penser l’homme et le monde autrement ». Un livre qui se veut pédagogique sur la notion et les enjeux du Big Data, et qui constitue la suite naturelle du précédent ouvrage de Gilles « L’ère numérique, un nouvel âge de l’humanité », dont je vous avais parlé il y a très précisément un an, le 2 mars 2014 (cliquez ici). Gilles Babinet, qui entreprend depuis plus de 20 ans dans le domaine du numérique (Absolut Design, Musiwave, Eyeka , MXP4, Digibonus …) est le cofondateur, avec Bruno Walther, de Captain Dash, une start up spécialisée dans l’analyse des données marketing et l’élaboration de tableaux de bord opérationnels.

Qu'est-ce que le Big Data ? Les 3 V du Big Data Pour bien délimiter le Big Data, le concept a été caractérisé par « Les 3 V » : Volume, Vitesse et Variété. Volume Lorsqu'on parle de volume pour le Big Data, on évoque souvent les 7 téraoctets (7.000 milliards d'octets) générés quotidiennement par Twitter ou les 10 téraoctets de contenus échangés tous les jours sur Facebook. On cite également YouTube qui prend en charge chaque minute l'équivalent de 48 heures de vidéos. De même Google, Amazon et les autres grands acteurs de l'économie numérique sont par nature des gestionnaires de flux de données et manipulent donc des volumes impressionnants.

DataCore améliore sa plate-forme de stockage SDS DataCore annonce la disponibilité de nouvelles fonctionnalités dans sa plateforme universelle de services de stockage SANsymphony™-V10 compatible avec tous les hyperviseurs et types de stockage et son logiciel DataCore™ Virtual SAN. La nouvelle version PSP2 intègre la prise en charge d’OpenStack Cinder, permettant de déployer la gamme complète des services de stockage SDS dans des clouds privés, hybrides ou publics créés avec OpenStack. La version offre aussi de nouveaux services et fonctionnalités pour contrôler et gérer de manière centralisée tout le processus des E/S, optimiser les ressources Flash, intégrer les sauvegardes, mieux exploiter l’espace, provisionner des postes de travail virtuels et automatiser les déploiements de stockage SDS hyper-convergés et globaux. Plusieurs services ont été intégrés pour fournir aux serveurs x86 standards les fonctionnalités de stockage essentielles que demandent les environnements exigeants des entreprises modernes.

L’analyse des données RH peut rendre les employés plus heureux et donc plus efficaces « En Pratique Et si l’analyse des comportements des employés dans leur environnement professionnel pouvait contribuer à améliorer leurs conditions de travail en favorisant leur épanouissement et donc leur productivité ? Les quantités de données qui existent sur les comportements au travail : échanges, communication, temps passé, etc. pourraient donner naissance à de nouveaux modes d’organisation. Les capacités d’analyse de données aujourd’hui disponibles, et notamment des big data, ces grands volumes de données hétérogènes, permettent de répondre par l’affirmative à cette question. Les échanges d’e-mails, la navigation sur Internet, les messageries instantanées fournissent des informations sur qui parle avec qui, quel est l’apport du système d’information à la productivité individuelle, etc. D’autres données, physiques celles-ci, enrichissent la connaissance des comportements professionnels. Lire l’article (en anglais)

Pourquoi nous aimons les données ! Publié le 21 juillet 2014 Aujourd’hui, grâce à la science et l’informatique, les données sont partout et permettent tant de modéliser le climat, que d’anticiper les comportements des consommateurs. C’est sûrement formidable pour certains, mais pas forcément toujours très rassurant… Pourquoi les données ne seraient-elles pas véritablement accessibles, inscrites dans nos usages quotidiens ?

Loi Renseignement : un ami expert du Big Data explique le danger de la surveillance automatisée Un ami expert du Big Data m'a adressé ce matin ce texte. Il y expose clairement pourquoi, selon lui, la « détection automatisée de comportements suspects » prévue par la Loi Renseignement est très dangereuse. En un mot, mettre les gens dans des cases au moyen d'un algorithme forcément imparfait, ce n'est pas grave s'il ne s'agit que d'envoyer de la publicité ciblée, mais ça l'est beaucoup plus s'il s'agit d'envoyer des policiers interpeller des gens chez eux à 6 heures du matin.

Big data, l’enjeu du pouvoir Le Big Data, Le Cloud … Internet évolue maintenant si vite que ses nouveaux développements deviennent des enjeux majeurs avant même que le grand public ait eu le temps de les comprendre. Nous nous retrouvons donc à employer, lire, entendre mentionner des terminologies désignant des concepts ou des technologies dont nous savons qu’elles sont cruciales, sans pour autant avoir la moindre idée de leur nature. Un nom qui fait peur, pour un concept bien simple Au même titre que la mystérieuse appellation “Cloud” désigne tout simplement le stockage de données sur des serveurs distants mais bien réels, le concept de “Big Data” recouvre une réalité somme toute assez simple. Depuis une décennie, le volume et la variété des données informatiques que nous produisons ainsi que la rapidité avec laquelle nous les stockons et traitons ont littéralement explosés. Le Big Data - traduit officiellement par “mégadonnées” en français - désigne cette abondance de données et son exploitation.

Des puces photoniques bientôt intégrées aux systèmes informatiques ? Ce boîtier renferme plusieurs centaines de puces photoniques destinées à fabriquer des émetteurs-récepteurs capables de transférer les données à 100 Gbit/s. IBM compte intégrer ces composants dans ses futurs serveurs et supercalculateurs. © IBM Des puces photoniques bientôt intégrées aux systèmes informatiques ?

Related:  BigData et Marketing