background preloader

Qu'est-ce que le data Mining ? Exploration des données

Qu'est-ce que le data Mining ? Exploration des données
Le Data Mining, qu'est-ce que c'est ? The devil is in the details. C'est un outil d'exploration des données décisionnelles Définition : Le Data Mining est en fait un terme générique englobant toute une famille d'outils facilitant l'exploration et l'analyse des données contenues au sein d'une base décisionnelle de type Data Warehouse ou DataMart. À quoi ça sert ? Principe : En peu de mots, l'outil de prospection Data Mining est à même de trouver des structures originales et des corrélations informelles entre les données. Comment on l'utilise ? A contrario des méthodes classiques d'analyses statistiques, Cet instrument d'analyse est particulièrement adapté au traitement de grands volumes de données. Les techniques mises en oeuvre Différentes techniques sont proposées. Comment ça marche ? Le principe : une démarche (simplifiée et didactique) en 5 temps majeurs. Définition du problème Quel est le but de l'analyse, que recherche-t-on ? 4 conseils complémentaires Principaux produits Open Source › 1. Related:  Data MiningData et Datamining

Définition : Data mining Ecrit par B.Bathelot, mis à jour le . Glossaires : Fidélisation / CRM /CRC | Marketing direct Dans un contexte marketing, le data mining regroupe l’ensemble des technologies susceptibles d’analyser les informations d’une base de données marketing pour y trouver des informations utiles à l’action marketing et d’éventuelles corrélations signifiantes et utilisables entre les données. Sur un plan plus général, le data mining est un processus qui permet d’extraire des informations commercialement pertinentes à partir d’une grande masse d’informations. « Le data mining client est un processus de management des données client qui opère à partir des données élémentaires pour produire de l’information, de la connaissance en vue d’une action bien déterminée vis à vis des clients »(Michel Jambu). Le data mining fait appel à des techniques très complexes. Des exemples d’usage du data mining dans le domaine de la bancassurance : Source image SPAD Une petite bibliographie sur le dataming :

Histoire du Data Mining · Problématiques Data Mining et CRM NEW : Retrouvez cette page sur la nouvelle version web de ce blog à l’adresse suivante : Ce blog étant dédié aux problématiques du Data Mining, on ne peut pas échapper à la question : « Mais c’est quoi exactement le Data Mining ? » Une définition se risque à dire que le Data Mining est l’outil qui permet de trouver de l’or dans une mine de charbon sans se salir les mains (Nb : Définition approximative de mémoire …) Le Data Mining ou littéralement « Forage de données » consiste en fait à mettre en relief des phénomènes et/ou corrélations auxquelles on ne pensait pas à priori et ceux grâce à la puissance de calcul des algorithmes. Parmi les utilisations du datamining on retrouve : Les premiers essais de fouilles de données sont devenus historiques. On cite la mise en évidence d’une corrélation très forte entre l’achat de couches pour bébés et de bière le samedi après-midi … Voilà pour la petite histoire. Retour Accueil

Définition : Datamining Le datamining désigne l’ensemble des techniques et méthodes dans les domaines des statistiques, des mathématiques et de l’informatique qui permettent de sortir d’un grand volume de données, des connaissances précises sur des éléments inconnus auparavant. Cette technique permet d’analyser et d’interpréter des données volumineuses, contenues dans une ou plusieurs bases de données afin de dégager des tendances. Le datamining est en mesure de créer des catégories statistiques composées d’éléments similaires afin de proposer des hypothèses. Experian Marketing Services propose des solutions de datamining vous aidant par exemple dans la prise de décision concernant l’optimisation de vos stratégies de géomarketing. Pour en savoir plus : - Découvrez nos solutions pour une analyse des données prospects et clients. Consultez les autres définitions en cliquant sur la première lettre du terme que vous cherchez :

Big Data : quand le marketing digital se met à l’heure de la science des corrélations-%post_id% Par Thierry Picard, Directeur Général de (Groupe Keyrus) Tout au long de notre éducation, la réponse à la question ‘Pourquoi ?’ est apparue comme «La Quête Absolue». Culturellement, surtout en marketing, la causalité est un moteur essentiel, tentant de comprendre pourquoi un consommateur adopte tel ou tel comportement et comment le reproduire. Le marketeur pense détenir un pouvoir absolu sur son marché. La réponse à ces questions peut coûter très cher en investigations en tout genre : études, panels, etc. et les réponses sont souvent empiriques, l’intuition jouant un rôle important. A l’heure du « neuromarketing » et du « Big Data », le marketing comme science du consommateur moderne semblerait sonner plutôt l’avènement de la pure «causalité» au profit d’une science des corrélations selon Viktor Mayer-Schönberger, professeur à l’Oxford Internet Institute, et Kenneth Cukier, responsable des données pour The Economist. Amazon est l’un des cas les plus illustres.

Big Data : pourquoi nos métadonnées sont-elles plus personnelles que nos empreintes digitales A l’occasion du colloque « la politique des données personnelles : Big Data ou contrôle individuel « organisé par l’Institut des systèmes complexes et l’Ecole normale supérieure de Lyon qui se tenait le 21 novembre dernier, Yves-Alexandre de Montjoye (@yvesalexandre) était venu présenter ses travaux, et à travers lui, ceux du MediaLab sur ce sujet (Cf. « D’autres outils et règles pour mieux contrôler les données » ). Yves-Alexandre de Montjoye est doctorant au MIT. Il travaille au laboratoire de dynamique humaine du Media Lab, aux côtés de Sandy Pentland, dont nous avons plusieurs fois fait part des travaux. Nos données de déplacements sont encore plus personnelles que nos empreintes digitales Faire correspondre des empreintes digitales n’est pas si simple, rappelle Yves-Alexandre de Montjoye. Image : illustration de l’unicité de nos parcours repérés via des antennes mobiles. Et Yves-Alexandre de nous inviter à retrouver un de ses collègues du Media Lab. Hubert Guillaud

Soon, la banque mobile d’Axa veut faire du Big Data en protégeant ses clients Ce texte a été lu 359 fois ! Axa annonce mille clients pour Soon, sa banque sur mobile lancée en mars. Soon apporte des services innovants de mise en image de ses dépenses, de paiement, de financement de projets ou de support via un chat 24/24. Google et Facebook sont dans le collimateur de Soon, la banque uniquement sur mobile d’Axa Banque. Protéger les données du client Outre des services innovants, c’est dans la protection des données de ses clients que la banque veut faire une partie de la différence. « Axa protège les personnes, et par extension, nous protégeons leurs données, c’est ce qui nous différencie d’un Google » résume Pierre Janin, directeur général d’Axa Banque. L’App est conçue pour collecter de nombreuses données personnelles, dépenses, factures, photos, … Que va-t-il advenir de toutes ces données ? Le compte bancaire devient « fun » En pratique, l’application mobile est de belle apparence. L’App est interfacée avec 800 facturiers Une forme de Facebook privé

Supports de cours -- Data Mining et Data Science Cette page recense les supports utilisés pour mes enseignements de Machine Learning, Data Mining et de Data Science au sein du Département Informatique et Statistique (DIS) de l'Université Lyon 2, principalement en Master 2 Statistique et Informatique pour la Science des donnéEs (SISE), formation en data science, dans le cadre du traitement statistique des données et de la valorisation des big data. Je suis très attentif à la synergie forte entre l'informatique et les statistiques dans ce diplôme, ce sont là les piliers essentiels du métier de data scientist. Attention, pour la majorité, il s'agit de « slides » imprimés en PDF, donc très peu formalisés, ils mettent avant tout l'accent sur le fil directeur du domaine étudié et recensent les points importants. Cette page est bien entendu ouverte à tous les statisticiens, data miner et data scientist, étudiants ou pas, de l'Université Lyon 2 ou d'ailleurs. Nous vous remercions par avance. Ricco Rakotomalala – Université Lyon 2

Les 5 leviers clés du succès d’un projet d’analyse prédictive - MyDigitalWeek Par Frédéric Brousse, Directeur Général d’Informatica France L’analyse prédictive occupe aujourd’hui un rôle central dans les processus de décision stratégique des entreprises et constitue, avec le Big Data, la troisième révolution dans l’industrie logiciels après le cloud computing et l’automatisation des tâches opérationnelles[1]. Elle permet aux entreprises d’exploiter une quantité de données considérable collectées auprès de leurs clients, de leurs marchés, des réseaux sociaux, des applications en temps réel, ou encore du cloud. L’objectif étant, in fine, d’apprendre de ces données pour mieux orienter la prise de certaines décisions stratégiques futures en se basant sur des probabilités. Cependant, comme pour toute initiative largement axée sur la technologie, pour mettre en place un projet d’analyse prédictive performant, les entreprises doivent d’abord intégrer une politique de gouvernance des données efficiente. Les 5 leviers clés du succès d’un projet d’analyse prédictive :

Data centers: la donnée écolo Il y en a des milliers dans le monde. Plus d’une centaine en France. Les data centers sont la face cachée d’Internet ; on y a recours tous les jours. Quand on consulte un site web, quand on envoie un mail, quand on publie une photo en ligne. Toutes ces données sont traitées et stockées dans ces immenses usines du numérique, alignant des armées de serveurs qui n’ont rien de virtuel. En 2011, Google possédait à lui seul 900 000 serveurs. Il y a un an, l’ONG a tiré la sonnette d’alarme, rappelant que les data centers étaient responsables de 2% des émissions de CO2. Eau de mer. Mais comment y parvenir ? OVH a par exemple inventé son propre système de water cooling, ou «refroidissement à eau». Et quid de la chaleur émise en continu par les data centers ? Energies vertes, réduction de la consommation, recyclage de la chaleur… Ces initiatives suffiront-elles à limiter l’impact environnemental des data centers ? L’évolution des composants électroniques devrait aider. «Ondulateurs».

Big data, l’enjeu du pouvoir Le Big Data, Le Cloud … Internet évolue maintenant si vite que ses nouveaux développements deviennent des enjeux majeurs avant même que le grand public ait eu le temps de les comprendre. Nous nous retrouvons donc à employer, lire, entendre mentionner des terminologies désignant des concepts ou des technologies dont nous savons qu’elles sont cruciales, sans pour autant avoir la moindre idée de leur nature. Un nom qui fait peur, pour un concept bien simple Au même titre que la mystérieuse appellation “Cloud” désigne tout simplement le stockage de données sur des serveurs distants mais bien réels, le concept de “Big Data” recouvre une réalité somme toute assez simple. Depuis une décennie, le volume et la variété des données informatiques que nous produisons ainsi que la rapidité avec laquelle nous les stockons et traitons ont littéralement explosés. C’est simple, en fait. Des ordres de grandeurs défiant la raison Le traitement des données informatiques : enjeu majeur du siècle à venir

Comment le Big Data va révolutionner 2013 "2012 a été l'année de l'évangélisation, 2013 sera l'année de la mise en place." Chez Atos, géant international du service informatique, pas de doute : cette année verra la multiplication des systèmes d'analyse dits de "Big Data". Plus qu'un concept, cette "grosse quantité de données" (littéralement) renvoie à de nouveaux systèmes informatiques qui promettent de "révolutionner la vie quotidienne". Le Big Data a émergé face à un constat. Chaque jour, 2,5 trillions d'octets de données sont générés dans le monde. "Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010", anticipe Chuck Hollis, directeur technique du leader mondial du stockage EMC et gourou du Big Data. Prédire les crises cardiaques Mais dans la pratique, comment s'illustre ce Big Data ? Les applications du Big Data sont nombreuses. En octobre dernier, le canadien Research in Motion (RIM) a été victime d'une panne majeure sur ses téléphones BlackBerry. Big Data = Big brother ?

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM. Ces données, de plus en plus d'entreprises cherchent à les exploiter. Du coup, des éditeurs de logiciels informatiques ont mis au point des techniques empruntées au calcul scientifique pour "mouliner toutes ces données" de manière exhaustive.

Related: