background preloader

Informatique decisionnelle

Facebook Twitter

Flux Vision: études de marché et croisement de données à l'heure du Big Data. Analyser en temps réel des millions d'informations techniques provenant du réseau mobile d'Orange (ou potentiellement de tout autre opérateur), et les convertir en indicateurs statistiques pour mesurer la fréquentation d'une zone géographique et les déplacements de populations qui s'y rattachent, c'est la finalité de Flux Vision, l'offre Études de marché / Big Data d'Orange Business Services. Ici pas d'équipement d'observation particulier à déployer, pas d'enquête sur le terrain à mener. Lancée en novembre 2013, Flux Vision repose sur des procédés exclusifs d'anonymisation irréversible des données développés par Orange en concertation avec la CNIL. Des procédés qui suppriment toute possibilité d'identifier les personnes concernées. Dans un premier temps, cette solution s'est adressée aux départements (38 d'entre eux l'utilisent aujourd'hui), aux régions, aux comités régionaux du tourisme et aux parcs d'attraction.

L’École polytechnique, Keyrus, Orange et Thales créent une chaire pour former des Data Scientists. Document. 3 piliers d’une organisation « Data-Driven ». [Section 3/3 : Datas] Profitant d’être à San Francisco, nous nous sommes immiscés dans un groupe de réflexion sur la data visualisation à Parisoma, animé par Scott Murray. La data visualisation est reconnue pour être une des disciplines les plus importantes/complexes dans le traitement des datas. Notre article va ainsi détailler les leçons tirées des échanges ayant eu lieu au sein de ce groupe de réflexion, qui répondent à la question « Comment bien exploiter les Datas ? ». Nous avons retranscris ces leçons sous la forme d’un schéma animé, présentant 3 piliers (Digital, Design, Data) que vous pouvez consulter ci-dessous. Les différentes étapes d’une organisation « Data-Driven ».

Dans cette section, les paragraphes abordent le pilier « Data », que nous avons jugé intéressant d’expliciter au travers du point de vue d’une entreprise B2C. ► La Data : unité de l’organisation « Data-Driven » The Data Visualization Process by Ben Fry Les 3 piliers d’une organisation Data-Driven. Les enjeux du Big Data dans la connaissance client en 2015. Le Big Data va être au coeur des enjeux pour les marques dans le domaine de la Connaissance Client en 2015.

Mais quels sont ces enjeux et quels sont les points qu'il faudra surveiller de près pour réussir son projet Connaissance Client grâce au Big Data ? Le Big Data est aujourd’hui sans aucun doute un des tous premiers facteurs d’innovation, et constitue en cela une formidable opportunité pour les annonceurs. L’innovation provient des nouveaux usages induits par le Big Data, un champ des possibles plus important, et finalement la rencontre entre différents univers fonctionnels, technologiques et métier. Encore faut il être capable de capter, incuber, canaliser et finalement capitaliser sur cette innovation, car l’expérience montre que cela met parfois les structures existantes à rude épreuve.Un des enjeux métier d’importance est d’être capable d’agir sur les leviers de croissance que le Big Data offre aux annonceurs. 15 ways to IMPROVE Customer Service at YOUR bus... Big Data, pourquoi les entreprises françaises peinent à se lancer - L'Express L'Expansion. Amazon, engagé dans une démarche d'anticipation des achats de ses clients, les innombrables initiatives de Google ou Facebook en la matière : en dehors de ces ogres du web, et de quelques pionniers français comme Crédit Mutuel/Arkéa, les exemples concrets de Big Data ne sont pas légions.

Dans son étude "(Big) data : où en sont les entreprises françaises? " Ernst & Young a élaboré un "indice de maturité Data". Sa conclusion? 17% des entreprises françaises sont vraiment matures dans l'exploitation de leurs données clients. Parce que le concept reste à l'état théorique? Ou que les entreprises qui ont vraiment mis la main à la pâte préfèrent garder secrètes leurs recettes? Parce que les entreprises françaises sont encore indécises? L'étude menée à l'automne 2014 par Fullsix et Limelight auprès d'une centaine de décideurs marketing/communication illustre à elle seule ce décalage entre attentes et réalités. Parce que Big Data = Big Blabla ? Parce qu'il s'agit de projets longs et complexes? Big Data : tarte à la crème ou révolution pour les études marketing ? (volet 1) la vie du conseil et des études marketing.

En l’espace de quelques mois seulement et au risque de la saturation du public, le big data s’est imposé comme un thème incontournable dans l’univers du marketing, généralement accolé du terme de « révolution »... Mais qu’est ce que le Big Data ? Quelle est la réalité de cet enjeu pour les études marketing ? Est-ce une menace ? Une opportunité ? En quoi et pourquoi le big data peut-il faire évoluer les façons de penser et les pratiques ? Qu’est-ce cela implique pour les parties prenantes, qu’il s’agisse des sociétés d’études ou des annonceurs ? Nous vous proposons de découvrir les réponses apportées à ces questions par Dominique Lévy-Saragossi et Gildas Vignaud (Ipsos), Luc Milbergue et Quentin Michard (Stratégir et EkiMetrics), et Philippe Drobniak (Enov Research / Eden Insight), dans le cadre du 1er volet de ce dossier spécial « big data ». inShare27.

Le Big Data en 8 questions - tendance marketing, tendance communication, veille marketing, veille communication, conseil stratégie relation client - La Poste -/le hub - 1 – Data mining et marketing. Le data mining signifie littéralement « forage de données ». Comme dans tout forage, sont but est d’extraire des données disponibles au sein de toute entreprise des informations exploitables d’un point de vue commercial. Dans le contexte actuel ou le consommateur est considéré comme volatile, ou la concurrence s’intensifie et ou les marchés deviennent saturés, le client devient l’acteur principal de l’entreprise. Des milliers d’informations sont collectées sur les comportements des clients mais sont le plus souvent mal exploitées.

Le data mining intervient alors pour exploiter au mieux ces données. 1 . Présentation du data mining Le data mining (appelé également exploitation stratégique de données) est apparu au milieu des années 90 avec le développement des datawharehouse. Le data mining correspond à l’ensemble des techniques et des méthodes qui à partir de données permettent d’obtenir des connaissances exploitables. 2. 3. Exemples de logiciels (liste non exhaustive) 4. Marketing direct. 5 – Rendre visuelles des données brutes. La data-v isualisation c’est LA nouvelle tendance de création de contenu. Un mot anglais (une fois de plus) pour décrire une nouvelle forme de traitement de l’information. Sur le site de France Inter, Julien Baldacchino présente le concept comme « l’art d’exposer, de façon graphique, des données brutes ». Une infographie, par exemple, est une forme de data-visualisation. Cette nouvelle technique, désormais utilisée massivement notamment par les sites d’informations, a deux fonctions majeures : - Rendre les données, parfois complexes, plus digestes pour le lecteur, accessibles à tous pour créer un lien avec le lecteur - Rendre esthétiques, attractives les données pour obtenir la confiance du lecteur Autrement dit, la data-visualisation c’est créer de l’information esthétique.

Car en 2013, tout site producteur de contenu a bien compris que le visuel est devenu un élément déterminant dans la mise en scène de l’information. Packaging de brique de lait réalisé par Audrée Lapierre. 6 – Livre blanc sur la data visualisation, le retour de 30 entreprises. 01net le 28/06/13 à 11h50 Si Napoléon est connu pour ses conquêtes et son rôle d’empereur, il l’est beaucoup moins en tant que précurseur involontaire de ce qui est devenu une mode dans le secteur IT, la « data visualisation ». Charles Joseph Minard, ingénieur civil français, a retracé en 1969 les pertes humaines de la Grande Armée lors de la campagne de Russie. En représentant par un graphique une grande quantité de données (les quelque 600 000 grognards), le trajet effectué et une courbe présentant la variation de température dans le temps, il a fait ce que l’on appelle de la « data visualisation ». SAS définit ce phénomène comme « l’exploration visuelle et interactive et la représentation graphique des données, quelles qu’en soient la volumétrie (du small data au big data), la nature ou la provenance.

L'évolution de la Grande Armée lors de la campagne de Russie, par Charles Joseph Minard. Pourquoi faire de la data visualisation ? © impactvisuel.net. Outils de visualisation et ressources pour les utiliser on Pinterest … Visualisation de données, dessiner pour informer et comprendre… La datavisualisation est l’étude et la mise en image d’informations, de données et de chiffres bruts.

Conçue comme un résumé visuel, elle permet de les rendre plus accessibles et ouvre aussi parfois de nouvelles perspectives. Elle est l’œuvre du datadesigner, qui travaille en collaboration avec le datajournaliste (qui recueille les données), à moins d’assumer lui-même cette fonction de documentation et d’investigation.

Le datadesigner s’efforce donc de rendre l’information à la fois claire et compréhensible sous une présentation agréable et esthétique. Quelques repères historiques Soulevant le problème de l’absence de formation à l’élaboration et à la lecture des graphiques, Gaëtan Gaborit nous propose, dans un diaporama publié en mai 2012, une initiation au monde des représentations visuelles. La loi de proximité,la loi de fermeture,la loi de similarité etla loi de symétrie. Lisibilité VS recherche esthétique ? Des modèles à suivre ?

Des outils accessibles Références : 5 – Forêts aléatoires et data mining. 0inShare Le module STATISTICA Random Forest est intégré à l’outil de data mining STATISTICA Data Miner. Il reprend les travaux effectués par Breiman et répond aussi bien à des problématiques de classification que de régression. Une Forêt Aléatoire (Random Forest) est constituée d’un ensemble d’arbres simples de prévision, chacun étant capable de produire une réponse lorsqu’on lui présente un sous-ensemble de prédicteurs. Pour les problématiques de classification, la réponse prend la forme d’une classe qui associe un ensemble (classe) de valeurs indépendantes (prédicteur) à une des catégories présente dans la variable indépendante. Samuel DODE a rejoint StatSoft France il y a 5 ans.

1 – Data mining et marketing. 3 – Des données au savoir. L’informatique a permis d’accumuler des quantités massives de données sur des sujets divers et variés, qu’il s’agisse du génome humain, de simples opérations de vente ou encore de données textuelles. Une donnée brute, tant sous sa forme numérique que papier, n’est pas intéressante en elle-même. Le data mining (« fouille de données » pour les francophones, également appelé Knowledge Discovery From Data) lui apporte tout son intérêt. Comment transformer les données en sources de savoir ? Voici l’une des grandes questions qui préoccupent les experts de la donnée.

Le data mining tente d’apporter des réponses à cheval sur un grand nombre d’autres disciplines, soit en tant qu’outils comme les statistiques et la recherche opérationnelle, soit en tant que domaine d’application comme la sociologie, le marketing ou la biologie. Cet article est le deuxième d’une trilogie portant sur le data mining : 1- Le data mining : des données au savoir Mining out of Silverton source : adambarhan/flickr Brian D. 1 – Exploration de données. Un article de Wikipédia, l'encyclopédie libre. Vous lisez un « bon article ». L'utilisation industrielle ou opérationnelle de ce savoir dans le monde professionnel permet de résoudre des problèmes très divers, allant de la gestion de la relation client à la maintenance préventive, en passant par la détection de fraudes ou encore l'optimisation de sites web.

C'est aussi le mode de travail du journalisme de données[1]. L'exploration de données[2] fait suite, dans l'escalade de l'exploitation des données de l'entreprise, à l'informatique décisionnelle. Histoire[modifier | modifier le code] Collecter les données, les analyser et les présenter au client. De 1919 à 1925, Ronald Fisher met au point l'analyse de la variance comme outil pour son projet d'inférence statistique médicale. L'arrivée progressive des micro-ordinateurs permet de généraliser facilement ces méthodes bayésiennes sans grever les coûts. Applications industrielles[modifier | modifier le code] 2 – Les techniques de collecte automatisée. Ces vingt dernières années ont vu le développement de techniques et d’outils informatiques qui permettent d’automatiser la collecte et la mise en forme de données, en particulier celles provenant d’internet[1].

Plus puissantes et plus faciles d’accès, ils sont aussi de plus en plus utilisés dans de nombreuses professions. Leur diffusion intéresse donc les chercheurs en sciences sociales, à la fois parce qu’elles permettent de collecter rapidement des informations sur divers aspects du monde social, mais aussi parce qu’elle conteste un peu plus leur monopole dans la production de données quantitatives. On se propose ici de réaliser un rapide tour d’horizon sur cette question qui souligne le potentiel, et évoque certains enjeux, du recours croissant à ces méthodes pour nos disciplines. Pour prendre un exemple concret, on peut vouloir chercher à déterminer les prix de l’immobilier dans une zone donnée. Dans plusieurs pays, le data mining connaît un renouveau.