background preloader

Big Data : comparatif des technos, actualités, conseils...

Big Data : comparatif des technos, actualités, conseils...
Pour faire face à l'explosion du volume des données, un nouveau domaine technologique a vu le jour : le Big Data. Inventées par les géants du web, ces solutions sont dessinées pour offrir un accès en temps réel à des bases de données géantes. Comment définir le Big Data, et quelle est sa promesse ? Face à l'explosion du volume d'informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d'analyse (serveur SQL, plateforme de Business Intelligence...). Confrontés très tôt à des problématiques de très gros volumes, les géants du web, au premier rang desquels Yahoo (mais aussi Google et Facebook), ont été les premiers à déployer ce type de technologies. Quelles sont les principales technologies de Big Data ? Elles sont nombreuses. Des infrastructures de serveurs pour distribuer les traitements sur des dizaines, centaines, voire milliers de nœuds.

http://www.journaldunet.com/solutions/analytics/big-data/

Related:  big dataBig data & décisionnelBig DataBig Data Overview (french)Définition du Big Data

Définition : Qu’est-ce que le Big Data ? - LeBigData.fr Le phénomène Big Data L’explosion quantitative des données numériques a obligé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. Il s’agit de découvrir de nouveaux ordres de grandeur concernant la capture, la recherche, le partage, le stockage, l’analyse et la présentation des données. Ainsi est né le « Big Data ». traitement de données Talend Open Studio for Data Integration est une solution d’intégration de données open source flexible et puissante. C'est un ETL (Extract Transform Load) open source basé sur Eclipse. Il permet d'interagir avec les données de votre Système d'Information, les intégrer, les mettre en forme, les transformer, ... L'interface générale vous permet de créer des "jobs" qui contiendront le workflow voulu, un workflow étant un ensemble d'activités qui s’enchaînent via l'utilisation de "composants". Comme dans un système standard d'entrée / sortie, vous avez des composants en entrée (input) et en sortie (output) qui vous permettent d'obtenir le résultat voulu (export CSV, envoi d'email pour indiquer les erreurs le cas échéant, etc). Ces composants s'interfacent entre eux via un ensemble d'"interactions" (linéaire, en cas d'erreur, en parallèle).

Définition du Big Data Définition du Big Data Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources. Ces données sont appelées Big Data ou volumes massifs de données. Ecoutez les experts

Big Data : définition, enjeux et études de cas l Data-Business.fr La Vénérable grille de lecture établie en 2001 par Doug Laney du cabinet Gartner – les fameux 3V du Big Data – fait encore référence. Les 3V, ce sont le Volume (des échanges de plus en plus massifs), la Variété (plus de types de contenus) et la Vélocité (la collecte et le traitement en temps-réel). Depuis, d’autres ont essayé d’approfondir le sujet, en incluant des éléments comme la Validité, la Véracité, la Valeur ou la Visibilité des data. Le Big Data, c’est d’abord l’explosion du VOLUME de données, qui met à l’épreuve les infrastructures de stockage classiques des des entreprises

Big Data : premiers pas avec MapReduce, brique centrale d'Hadoop Le modèle MapReduce est conçu pour lire, traiter et écrire des volumes massifs de données. Des bonnes feuilles issues de l'ouvrage Big Data chez Eni. MapReduce est un modèle de programmation conçu spécifiquement pour lire, traiter et écrire des volumes de données très importants. Un programme Hadoop met généralement en œuvre à la fois des tâches de type map et des tâches de type reduce. MapReduce implémente les fonctionnalités suivantes : INSERM - Big data en santé. Dossier réalisé en collaboration avec Rodolphe Thiebaut, directeur de l’équipe Statistiques pour la médecine translationnelle (unité 1219 Inserm/Inria), enseignant à l’Institut de santé publique d’épidémiologie et de développement (ISPED, Bordeaux), directeur de l’unité de soutien méthodologique à la recherche clinique et épidémiologique au CHU de Bordeaux et chercheur au Vaccine Research Institute (Créteil). En santé comme dans bien d’autres domaines, les progrès technologiques ont fait exploser la quantité d’informations recueillies à chaque instant. Ainsi, si dix ans ont été nécessaires pour obtenir la première séquence d’un génome humain, en 2003, il faut aujourd’hui moins d’une journée pour parvenir au même résultat. Cette accélération technologique fait croître le volume de données disponibles de manière exponentielle. © CC-BY 2.0 luckey_sun (via Flickr) Un nombre important de sources et de types de données

Comment accompagner les entreprises vers des changements majeurs, comme le cloud ou le big data ? Comment accompagner les entreprises vers des changements majeurs comme le cloud ou le big data ? Des années d’observation et d’analyse de la façon dont les entreprises conduisent le changement, ont permis à John Kotter d’identifier huit étapes clés pour y parvenir avec efficacité. C’est en appliquant cette méthode que vous augmenterez vos chances de réussir ces changements au sein de votre entreprise. 1. Créer un sentiment d’urgencePour assurer une mobilisation suffisante, il est essentiel que chacun ressente que le statu quo est inacceptable. A défaut, dès que les premiers obstacles surgiront, beaucoup trouveront rapidement d’excellentes raisons de ne pas faire d’efforts.

Le marché du «big data», nouveau graal de l'informatique Tous les acteurs du secteur investissent ce créneau, qui affiche un taux de croissance insolent de 40 %. 2014 sera l'année des systèmes d'analyse des données informatiques, dits de «big data». Dans les allées du salon Big Data Paris, qui se tient mardi et mercredi, tous les participants en sont intimement convaincus. Ce n'est pas un hasard si ce secteur figure parmi les 34 plans de reconquête pour la «Nouvelle France industrielle» lancés en septembre dernier par Arnaud Montebourg.

Qu'est-ce que le Big Data ? Pour répondre aux nouveaux enjeux de traitement de très hautes volumétries de données, les entreprises peuvent faire appel à des solutions spécialisées dans le Big Data. JDN Solutions fait le point. Que recouvre la notion de Big Data ? Le Big Data fait référence à l'explosion du volume des données dans l'entreprise et des nouveaux moyens technologiques proposés par les éditeurs, en particulier de la Business Intelligence, pour y répondre. Le terme même de Big Data a été évoqué la première fois par le cabinet d'études Gartner en 2008 mais des traces de la genèse de ce terme remontent à 2001 et ont été évoquées par le cabinet Meta Group racheté en 2005 par...le Gartner. A quels enjeux répondent les solutions de Big Data ?

Quel cadre juridique pour les mégadonnées (Big Data) ? Le phénomène du Big Data désigne la croissance exponentielle du volume des données disponibles sous forme numérique aussi bien dans les entreprises que sur l’internet. Il s’agit d’un ensemble de technologies et d’algorithmes qui permettent de trier en temps réel une masse considérable de données sur le Web, et de cerner plus subtilement les comportements des internautes-consommateurs. Le Big data est un enjeu capital pour les entreprises.

Le marché du big data va peser 445 M€ en France en 2016 Pour 82% des entreprises sondées par IDC, la sécurité est un enjeu majeur du big data. (crédit : D.R.) Pour IDC, 11% des entreprises françaises sont réellement en retard sur le big data. En ce qui concerne les autres, une majeure partie d'entre elles n'est pas encore en mesure d'exploiter correctement ces très grands volumes de données. "Big data" : un mode de travail collaboratif et agile qui accélère l’évolution des entreprises Autre changement, le temps du "Big Data" est rapide : 5 à 8 semaines pour extraire les données, les analyser, bâtir des modèles fiables et déclencher les premières actions. Tout ceci mit en œuvre pour et par des "task forces" transverses pour réellement permettre le mix d’expériences et de cultures, accroître la diversité et donc la richesse des analyses. Enfin un vrai levier technologique pour l’organisation matricielle qui souffrait depuis ses origines du non-partage ou d’une incompréhension des informations entre des forces issues des "silos" fonctionnels, métiers ou géographiques du passé. Un projet "Big Data" consiste à marier de gros volumes de données détaillées et différentes pour construire en 5 à 8 semaines des modèles d’analyse. Les entreprises peuvent désormais comprendre des phénomènes complexes et surtout faire partager ces analyses pour accroître leur intelligence collective.

Big Data: des données plus intelligentes pour mieux cibler le client La nouveauté, avec le Big Data est que les données deviennent maintenant "actionnables". Une expression de marketing qui signifie que les datas peuvent amener les gens à faire une chose précise. Comme s’abonner à un site, participer à un jeu ou acheter un produit. Pour vendre un produit sur internet, il faudra de moins en moins cibler une grosse masse d’internautes. On réunira au contraire de nombreuses données sur un individu pour créer un profil précis et lui proposer le produit qu’il a toutes les raisons d’acheter. Ce n’est pas une science exacte, mais ça fonctionne.

Big data Un article de Wikipédia, l'encyclopédie libre. Une visualisation des données créée par IBM[1] montre que les big data que Wikipedia modifie à l'aide du robot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations[2]. Croissance et Numérisation de la Capacité de Stockage Mondiale de L'information[3]. Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Certains supposent qu'ils pourraient aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée.

Related: