background preloader

Big Data : comparatif des technos, actualités, conseils...

Big Data : comparatif des technos, actualités, conseils...
Pour faire face à l'explosion du volume des données, un nouveau domaine technologique a vu le jour : le Big Data. Inventées par les géants du web, ces solutions sont dessinées pour offrir un accès en temps réel à des bases de données géantes. Comment définir le Big Data, et quelle est sa promesse ? Face à l'explosion du volume d'informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d'analyse (serveur SQL, plateforme de Business Intelligence...). Confrontés très tôt à des problématiques de très gros volumes, les géants du web, au premier rang desquels Yahoo (mais aussi Google et Facebook), ont été les premiers à déployer ce type de technologies. Quelles sont les principales technologies de Big Data ? Elles sont nombreuses. Des infrastructures de serveurs pour distribuer les traitements sur des dizaines, centaines, voire milliers de nœuds.

http://www.journaldunet.com/solutions/analytics/big-data/

Related:  Data Viz

MapReduce Les termes « map » et « reduce », et les concepts sous-jacents, sont empruntés aux langages de programmation fonctionnelle utilisés pour leur construction (map et réduction de la programmation fonctionnelle et des langages de programmation tableau). MapReduce permet de manipuler de grandes quantités de données en les distribuant dans un cluster de machines pour être traitées. Ce modèle connaît un vif succès auprès de sociétés possédant d'importants centres de traitement de données telles Amazon.com ou Facebook. Il commence aussi à être utilisé au sein du Cloud computing. traitement de données Talend Open Studio for Data Integration est une solution d’intégration de données open source flexible et puissante. C'est un ETL (Extract Transform Load) open source basé sur Eclipse. Il permet d'interagir avec les données de votre Système d'Information, les intégrer, les mettre en forme, les transformer, ... L'interface générale vous permet de créer des "jobs" qui contiendront le workflow voulu, un workflow étant un ensemble d'activités qui s’enchaînent via l'utilisation de "composants". Comme dans un système standard d'entrée / sortie, vous avez des composants en entrée (input) et en sortie (output) qui vous permettent d'obtenir le résultat voulu (export CSV, envoi d'email pour indiquer les erreurs le cas échéant, etc). Ces composants s'interfacent entre eux via un ensemble d'"interactions" (linéaire, en cas d'erreur, en parallèle).

Histoire du cloud computing de la naissance à nos jours Selon les prévisions, d'ici 2020, le marché du cloud computing devrait dépasser les 241 milliards de dollars… Mais comment en est-on arrivé là ? Par quoi tout a commencé ? Même si le cloud computing est en réalité assez récent (les premiers sites Web grand public et professionnels de services de cloud computing, Google et salesforce.com, ont été lancés en 1999), son histoire est directement liée au développement d'Internet et des technologies d'entreprise. Le cloud représente en effet la solution idéale permettant d'allier les bénéfices de l'Internet et les améliorations des technologies d'entreprise.

Comment ruiner sa réputation avec une simple vidéo YouTube ? « Il faut 20 ans pour construire une réputation et cinq minutes pour la détruire » disait l’homme d’affaires Warren Buffet. Le haut dirigeant américain Adam Mark Smith a récemment fait passer le délai de cinq minutes à environ deux minutes, la durée de sa vidéo virale postée sur YouTube. Ce directeur financier a perdu un emploi payé 200 000 dollars par an et un million de dollars de stock-options. Big Data : premiers pas avec MapReduce, brique centrale d'Hadoop Le modèle MapReduce est conçu pour lire, traiter et écrire des volumes massifs de données. Des bonnes feuilles issues de l'ouvrage Big Data chez Eni. MapReduce est un modèle de programmation conçu spécifiquement pour lire, traiter et écrire des volumes de données très importants. Un programme Hadoop met généralement en œuvre à la fois des tâches de type map et des tâches de type reduce. MapReduce implémente les fonctionnalités suivantes :

Comment accompagner les entreprises vers des changements majeurs, comme le cloud ou le big data ? Comment accompagner les entreprises vers des changements majeurs comme le cloud ou le big data ? Des années d’observation et d’analyse de la façon dont les entreprises conduisent le changement, ont permis à John Kotter d’identifier huit étapes clés pour y parvenir avec efficacité. C’est en appliquant cette méthode que vous augmenterez vos chances de réussir ces changements au sein de votre entreprise. 1. Créer un sentiment d’urgencePour assurer une mobilisation suffisante, il est essentiel que chacun ressente que le statu quo est inacceptable. A défaut, dès que les premiers obstacles surgiront, beaucoup trouveront rapidement d’excellentes raisons de ne pas faire d’efforts.

Livres blancs sur l'eCRM Ressources Accédez à toutes nos ressources : vous trouverez ci-dessous nos livres blancs, bonnes pratiques, avis d’experts et cas clients couvrant l’ensemble de notre expertise. CONTACTMENTIONS LÉGALESPLAN DU SITE© Copyright Cabestan 2013. Tous droits réservés. Journée européenne de la protection des données: des espions sur la Toile Les menaces envers notre vie privée générées par le "cloud computing" sont sous-estimées voire ignorées: c'est ce qu'affirme une étude du Parlement, alors qu'on fête aujourd'hui la Journée européenne de la protection des données. Celle-ci vise à sensibiliser les citoyens à la manière dont leurs informations personnelles sont collectées et traitées, et à les aider à protéger leur vie privée. Le Parlement réforme actuellement la loi sur la protection des données, qui date de 1995 et est dépassée. Le droit à être oublié La réforme de la règlementation européenne sur la protection des données, lancée par la Commission européenne, vise à mettre à jour la loi actuelle qui date de 1995 en l'adaptant aux évolutions technologiques.

Votre première installation Hadoop Cet article est pensé pour vous aider à affronter le baptême du feu : l’installation de la plate-forme. Quelle distribution choisir ? La première question à se poser lorsque l’on choisit sa distribution Hadoop est celle du support. En effet, sur la version packagée par Apache, il est difficile de se procurer un support efficace et digne de ce nom. "Big data" : un mode de travail collaboratif et agile qui accélère l’évolution des entreprises Autre changement, le temps du "Big Data" est rapide : 5 à 8 semaines pour extraire les données, les analyser, bâtir des modèles fiables et déclencher les premières actions. Tout ceci mit en œuvre pour et par des "task forces" transverses pour réellement permettre le mix d’expériences et de cultures, accroître la diversité et donc la richesse des analyses. Enfin un vrai levier technologique pour l’organisation matricielle qui souffrait depuis ses origines du non-partage ou d’une incompréhension des informations entre des forces issues des "silos" fonctionnels, métiers ou géographiques du passé. Un projet "Big Data" consiste à marier de gros volumes de données détaillées et différentes pour construire en 5 à 8 semaines des modèles d’analyse. Les entreprises peuvent désormais comprendre des phénomènes complexes et surtout faire partager ces analyses pour accroître leur intelligence collective.

Ces DSI qui prennent le virage du Big Data : Catalina Marketing : le Big Data au cœur du métier du couponing Catalina Marketing a mis le Big Data directement au service de son cœur de métier. A savoir : la gestion de campagnes marketing en magasin sous la forme d'opérations de couponing ciblées. La société s'adosse à une infrastructure de traitement de données en masse pour générer et calculer ses bons de réduction lors du passage des clients en caisse, en réalisant une analyse en temps réel du contenu des caddies.

Ce site web vend vos données personnelles... et vous rémunère Et si nous devenions traders de nos propres données ? En faisant de la diffusion et du contrôle d’informations personnelles son activité principale, la start-up américaine Datacoup vient semer le trouble dans le marché encore opaque des données numériques. Son objectif ? Watch_Dogs WeAreData Dans Watch_Dogs, la ville de Chicago est gérée par le ctOS, un système de contrôle informatisé hautement perfectionné. Ce réseau utilise les données qui lui sont transmises pour contrôler l’ensemble des infrastructures urbaines et résoudre les problèmes complexes liés à la circulation routière, la lutte contre la délinquance, la gestion de l’électricité, etc. Mais aujourd’hui, cette situation n’a plus rien de fictif : les villes « intelligentes » sont une réalité.

Big Data - B&D France Le Big Data, ce n'est pas simplement utiliser de nouvelles technologies pour la gestion de grande volumétries de données, en comptant sur la créativité de certaines populations d'utilisateurs pour en trouver les bons usages. Cela commence par l'identification, avec les métiers, des questions importantes pour l'amélioration de leurs performances, auxquelles ils ne peuvent trouver de réponse avec les systèmes actuels du fait de données initiales trop volumineuses, trop dispersées ou pas suffisamment structurées pour être utilisables. Cela se poursuit par la mise en oeuvre d'une démarche évolutive "Big Data", destinée à apporter des premières réponses sur des premiers ensembles de données. Cette démarche s'enrichit progressivement en termes de services rendus, de traitements possibles et de prises en compte de nouveaux capteurs de données : nouvelles applications dans l'entreprise, objets intelligents, données dites non structurées (documents, web, intranet...), données externes...

Related: