background preloader

La mine d'or du Big Data

La mine d'or du Big Data
LE MONDE ECONOMIE | • Mis à jour le | Par Julie Battilana, professeure associée à la Harvard Business School L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple, de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. C'est donc un véritable marché, désigné par le vocable anglo-saxon "Big Data", qui a émergé autour de l'exploitation de la masse de données informatiques disponibles. Cette approche leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts. Related:  Le Big DataActualité - Big Data

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM. Ces données, de plus en plus d'entreprises cherchent à les exploiter. Du coup, des éditeurs de logiciels informatiques ont mis au point des techniques empruntées au calcul scientifique pour "mouliner toutes ces données" de manière exhaustive.

Big Data : comparatif des technos, actualités, conseils... Pour faire face à l'explosion du volume des données, un nouveau domaine technologique a vu le jour : le Big Data. Inventées par les géants du web, ces solutions sont dessinées pour offrir un accès en temps réel à des bases de données géantes. Comment définir le Big Data, et quelle est sa promesse ? Face à l'explosion du volume d'informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d'analyse (serveur SQL, plateforme de Business Intelligence...). Quelles sont les principales technologies de Big Data ? Elles sont nombreuses. Des bases de données NoSQL (comme MongoDB, Cassandra ou Redis) qui implémentent des systèmes de stockage considérés comme plus performants que le traditionnel SQL pour l'analyse de données en masse (orienté clé/valeur, document, colonne ou graphe). Des infrastructures de serveurs pour distribuer les traitements sur des dizaines, centaines, voire milliers de nœuds.

Pour de nouveaux principes de confidentialité des données A l'heure des Big Data, la protection et la confidentialité des données sur Internet fait plus que jamais l'objet de nombreux débats. En quête de nouveaux principes, les spécialistes veulent sensibiliser les individus et responsabiliser les organisations. Dans leur rapport publié ce mardi, Peter Cullen, chef de la stratégie de la confidentialité chez Microsoft, Fred Cate, professeur à l'université de l'Indiana, et Viktor Mayer-Schönberger, professeur à l'Oxford Internet Institute se sont penchés sur la question afin de définir de nouveaux principes de confidentialité des données. > De la responsabilité des individus à celle des organisations Selon les auteurs du rapport, les nouvelles approches de la confidentialité sur Internet s'accordent sur la nécessité de déplacer la responsabilité des individus concernant leurs données vers les organisations qui les utilisent. > Définir l'utilisation des données > Pour une définition collaborative des principes de confidentialité

Big Data + mauvaise méthode = Big Echec ! Abed Ajraou 256inShare Cependant, rares sont les sociétés qui accompagnent les entreprises de la meilleure des façons, c'est à dire en proposant une méthode innovante et adaptée aux défis du Big Data. Naviguer dans l'inconnu Un des points communs des initiatives Big Data est l'inconnu. En effet, il est impossible de prédire si la question business soulevée apportera un retour sur investissement pour l'entreprise. À l'instar du Lean Startup, lorsque l'on souhaite lancer un "use case" sur le Big Data, il est vital de définir la "MVA": Minimum Viable Application. Autres articles Big data Un article de Wikipédia, l'encyclopédie libre. Une visualisation des données créée par IBM[1] montre que les big data que Wikipedia modifie à l'aide du robot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations[2]. Croissance et Numérisation de la Capacité de Stockage Mondiale de L'information[3]. Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Certains supposent qu'ils pourraient aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée. Dimensions des big data[modifier | modifier le code] Le Big Data s'accompagne du développement d'applications à visée analytique, qui traitent les données pour en tirer du sens[15]. Volume[modifier | modifier le code] Variété[modifier | modifier le code]

Big Data, grande illusion La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Mitchell ne conteste pas l'utilité des Big Data, il en conteste la nouveauté et le degré de priorité dans les agendas de recherche et d'investissement. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture. Alan Mitchell n'a pas entièrement raison.

Définition du Big Data - Profitez des opportunités du Big Data - France Définition du Big Data Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources. Ces données sont appelées Big Data ou volumes massifs de données. Ecoutez les experts Le Big Data couvre quatre dimensions : volume, vélocité, variété et véracité. Volume : les entreprises sont submergées de volumes de données croissants de tous types, qui se comptent en téraoctets, voire en pétaoctets. Vélocité : parfois, 2 minutes c'est trop. Véracité : 1 décideur sur 3 ne fait pas confiance aux données sur lesquelles il se base pour prendre ses décisions.

Pour mieux comprendre le Big Data The concept of Big Data is seen as one of the key technology issues of the decade – so what exactly is it for? Zettabytes (1021) of data – millions billions of bytes of information First coined in the early Noughties and identified by analysts as a major technology trend since 2010, the term Big Data refers to huge volumes of digital data, and the storing and analysis thereof. For example, according to French financial daily Les Echos, aeroplane sensors generate 1 petabyte (1015) of data for a flight between Spain and Saudi Arabia: the equivalent capacity of 20,000 50 GB PCs. In 2008, Google was already producing 20 petabytes a day. By users of connected devices (on PCs, tablets, smartphones, TVs), via written messages, videos, sound, and photosBy smart objects (GPS, sensors, RFID chips, QR codes, etc.)In real timeIn a variety of forms Hence the 3 Vs of volume, velocity and variety which are commonly used to characterise different aspects of big data. What is Big Data used for?

Synthèse mensuelle : L’échec des projets d’analytics est-il inéluctable D’ici à 2017, 60 % des projets d’analytics seront sanctionnés par des échecs. Tel est le sombre scénario que décrit le Gartner qui propose quelques moyens d’y remédier. Mener à bien un projet de business intelligence ou d’advanced analytics[1] n’est donc pas un long fleuve tranquille. Il concerne autant un changement d’état d’esprit et de culture que d’acquisition d’outils et de compétences. Parallèlement, le big data[2] a le vent en poupe, le Gartner prévoit que 75 % des entreprises investir ou projette de le faire dans les deux ans à venir. « Nous observons une évolution significative dans le contenu des projets et dans les pratiques, explique Nick Heudecker, directeur de recherche au Gartner. Parmi les objectifs les plus fréquemment poursuivis, on peut citer l’amélioration de l’expérience client, l’optimisation des processus métier et la réduction de coûts. La majorité des entreprises attendent un ROI positif (le contraire aurait paru surprenant !)

Big Data : la nécessité d’un débat Nous voici entré dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'information doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c'est le dossier de la semaine d'InternetActu. 6 provocations à propos des Big Data Traduction : Pierre Grosdemouge (@cultord) & Fred Pailler (@Sociographie) à l’initiative de Laurence Allard. L'article original à été présenté lors du Symposium sur les dynamiques de l'internet et de la société : "Une décennie avec Internet", organisé par l'Oxford Internet Institute, le 21 septembre 2011 L'ère de Big Data a commencé. 1. 2.

Du rôle prédictif des données à la gouvernementalité algorithmique Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données. Réécouter l’émission en ligne, ou parcourez le transcript augmenté de liens. Il y a de multiples formes de données, rappelle en préambule Xavier de la Porte : données sociales, messages, commentaires, celles qu’on publie chez les autres ou que les autres publient sur soi. Il y a bien sûr les données comportementales : celles qui mesurent ce que vous faites sur l’internet, les données géographiques, les données publiques, les données privées. Erick Alphonse : Oui.

Big data : comment se lancer ? - SOLUCOMINSIGHT Assurance Digital & innovation Publié le Le challenge du Big data est de donner du sens à une masse de données pour aboutir à des cas d’usage générateurs de valeur. L’émergence des idées est une étape essentielle de prise de recul ayant pour objectif de porter un regard nouveau sur le marché et sur ses propres activités. L’incubation a pour objectif de concrétiser rapidement les idées sélectionnées. Les premières expérimentations et premiers projets doivent privilégier la simplicité. L’aspect variété des données est souvent limité en raison d’une plus grande complexité d’intégration. La réussite de la démarche repose sur la mobilisation des bonnes personnes au bon moment. La compétence clé d’analyse des méga-données doit au départ être centralisée, l’équipe cœur formant ainsi un guichet unique accélé- rant l’émergence et le test des idées. Pilier 1 : les compétences Pilier 2 : le Data Management Pilier 3 : le système d’information

Energie, pollution et internet La lecture de la semaine provient du New York Times, il s’agit du premier article d’une série consacrée au coût écologique du Cloud computing (informatique dans les nuages, le fait que nos données soient stockées, non pas dans les nuages, mais dans des infrastructures très matérielles). Le titre “Energie, pollution et Internet”, ce début d’article fait un résumé de la longue enquête du quotidien américain. “Des dizaines de milliers de data center (gigantesques bâtiments abritant des serveurs) sont aujourd’hui nécessaire pour supporter l’explosion de l’information numérique. Des quantités gigantesques de données sont mises en circulation chaque jour lorsque, d’un simple clic ou au contact du doigt, les gens téléchargent des films sur iTunes, regardent l’état de leurs comptes sur le site de leur banque, envoient un mail avec une pièce jointe, font leurs courses en ligne, postent un message sur Twitter ou lisent un journal en ligne.” Xavier de la Porte

Related: