background preloader

4 façons d’exploiter le Big data pour développer son activité

4 façons d’exploiter le Big data pour développer son activité
Publicité, e-commerce, gestion des villes, comportement de navigation sur Internet, Big data ceci, Big data cela… Le Big data est partout et à toutes les sauces. Si les quantités de données générées sur la toile semble impressionante, encore faut-il savoir comment les traiter et les utiliser pour les rendre utile à votre entreprise. Lorsqu’une entreprise ouvre son site et procède à sa refonte totale, il peut y avoir un décalage important entre les intentions du département marketing en matière de trafic et la réalité de l’audience. Le Big data, grâce à de nombreux outils d’analyse facile à implémenter (quelques lignes HTML le plus souvent) permettent d’obtenir une manne de données importantes et utiles. Il s’agit bien sûr de données quantitatives, comme le nombre de visites, de visiteurs uniques, les horaires de consultation… mais aussi – et c’est peut-être le plus important – de données qualitatives : pays d’origine des visiteurs : correspondent-ils vraiment à vos clients ?

Big Data : pourquoi les DSI ne doivent pas freiner le traitement analytique La Royal Bank of Scotland (RBS), qui génère de copieux volumes de données avec plus de 400 transactions d'agences par seconde pour les entreprises, vient de déployer un entrepôt de données parallèle exclusivement dédié au Big data. Les équipes chargées du traitement analytique ont besoin de cette infrastructure dédiée, sous peine d'être freinées par leur propre département informatique, prévient le responsable de l'analyse des données de RBS. "Les fonctions technologiques ont encore du mal à suivre le rythme des demandes des entreprises. En tant qu'acteur et responsable du traitement analytique, je ne peux pas permettre qu'il en soit ainsi", déclare Alan Grogan, (photo ci-contre) responsable du traitement analytique pour la division Customer Solutions Group de RBS. "Je ne peux pas me tourner vers mon PDG ou vers mes clients et leur dire que je suis désolé, mais que nous n'avons pas l'évolutivité, la flexibilité ou le contrôle suffisants dans ce domaine." "Nous avions ce problème avant.

Le Big Data peut aider le recrutement et la prise de décision des DRH À l'heure où Google sait ce que l'on cherche avant même que l'on ait fini de taper une requête (recherches prédictives), il est surprenant que les professionnels ne disposent pas encore eux aussi d'outils leur permettant de découvrir de manière organique les informations relatives à leurs collaborateurs. Les responsables des ressources humaines (RH) doivent bien souvent prendre des décisions stratégiques sur les talents et les effectifs, décisions qui peuvent avoir un impact considérable sur leur entreprise. Pourtant, ils peinent encore à obtenir les données qui conduisent à des décisions réellement éclairées. Les dirigeants veulent que leurs équipes RH leur donnent des réponses. Les logiciels d'analyse des données d'entreprise sont généralement utilisés par la finance ou d'autres services pour mieux comprendre et prévoir les performances économiques, ou encore pour identifier les clients et les produits les plus rentables. Les analyses décisionnelles enrichies par le Big Data

Google utilise l'intelligence artificielle pour optimiser ses datacenters L'intelligence artificielle est un gros sujet chez Google. En dévoilant un peu ses projets liés à la robotique récemment, le géant expliquait que les travaux menés visaient ses unités de production et de stockage des données avant d'être destinés au grand public. Cela se confirme dans un domaine différent, mais lié : l'intelligence artificielle. Réseaux de neurones artificiels Selon Kava, Google utilise des réseaux de neurones artificiels pour optimiser ses datacenters. Mais Kava précise que dans certains cas, les prises de décision sont beaucoup plus rapides que chez un humain. Une base d'optimisation pour l'internet ? Le projet découle du "temps Google", les 20% de temps que certains employés de Google peuvent passer à étudier des projets personnels, d'un jeune ingénieur, Jim Gao. Son modèle de datacenter "intelligent" a été détaillé dans un livre blanc publié ce matin même.

Open Data : les propositions des industriels du logiciel au gouvernement À l’occasion de la tenue de la Conférence de Paris consacrée à l’Open Data, l’association des industriels français du logiciel, l’AFDEL, a dévoilé cinq propositions (PDF) visant à accélérer l’impact économique de l’ouverture des données publiques en France. Petit tour d’horizon. La présentation de ces cinq propositions par l’Association française des éditeurs de logiciels et solutions internet (AFDEL) n’est absolument pas anodine, puisqu’elle intervient au même moment que la Conférence de Paris sur l’Open Data, où sont notamment attendus plusieurs membres du gouvernement. Encore un peu de ménage dans les redevances Rappelons qu’en contrepartie de l’ouverture de certains jeux de données publiques, les administrations peuvent demander une redevance aux professionnels (ou aux particuliers) qui souhaiteraient en faire une réutilisation, éventuellement commerciale. Quelles sont donc ces idées à même de promouvoir « une politique de l’Open Data plus volontariste et ambitieuse » ? Xavier Berne

La segmentation des consommateurs : de nouvelles données impliquent l’apparition de nouvelles tendances (partie 1) | Business Strategies Le volume de données disponibles ne cesse de grossir – tout le monde le sait. Le terme « Big Data » a été très populaire ces dernières années. Pendant que les marketers se demandent combien de nouvelles données ont été créées et comment la variété des données fait-elle pour devenir toujours plus importante, ils ne répondent pas à la question : « Que faisons-nous de ces données ? Pour les marketers en particulier, cette donnée est de l’or pour constituer une segmentation client. L’utilisation de la segmentation permet un meilleur ciblage et donc un marketing plus pertinent pour les consommateurs. Le « Quoi ? Plus un outil de segmentation a de données, plus il créera des segments précis et détaillés. Ces données peuvent être récoltées par le biais du recensement, de sociétés spécialisées ou de sources ouvertes de données. Les données quantitatives seules ne sont pas suffisantes. Des tendances digitales basées sur les données d’activité online.

Open data : le Sénat dénonce la mauvaise volonté de l'administration Une mission sénatoriale déplore le peu d'entrain de l'administration à communiquer ses données et documents aux citoyens. Une réticence qui constitue l'un des principaux freins à l'essor de l'open data en France. "Souvent trop peu diligentes, frileuses, voire de mauvaise volonté"... Les administrations sont pointées du doigt pour leur réticence à pratiquer l'ouverture de leurs données dans un rapport rendu public jeudi 12 juin par une mission commune d'information du Sénat. Issu de 14 semaines d'auditions, ce rapport (validé à l'unanimité par les membres de la mission) souligne l'un des principaux freins de l'accès aux données produites par les administrations : le peu d'enthousiasme des administrations elles-mêmes à partager leurs données. "Inertie persistante" Au travers de leurs propositions, les sénateurs cherchent notamment à consacrer un "droit effectif" à l'accès aux documents publics. Vers une liste publique de "mauvais élèves" ?

Big Data et données non structurées: PostgreSQL n’a pas dit son dernier mot ! Un sujet revient toujours sur la table dès que l'on parle de bases de données: le « mouvement NoSQL » incarné par MongoDB, Cassandra ou encore Couchdb semble voler la vedette aux SGBD relationnels qui semblent tout à coup un peu dépassés… Qu’en est-il vraiment ? Le NoSQL (pour «Not Only SQL »), acronyme qui a fait son apparition a la fin des années 1990, s’est retrouvé ces dernières années propulsé sur le devant de la scène pour avoir su conquérir quelques entreprises de renom du Web 2.0, parmi lesquelles Facebook, Twitter, Google, Digg, Amazon ou encore LinkedIn. Des entreprises aussi florissantes que gourmandes en données informationnelles ou utilisateurs. Pourquoi les bases NoSQL affichent-elles des performances supérieures à PostgreSQL ? Sur le plan opérationnel, il existe en effet des cas de figures où les bases NoSQL s'avèrent plus adaptées que les bases traditionnelles. Du traitement des données à leur exploitation L’avenir est au rapprochement du SQL et du NoSQL

5 conseils (majeurs) pour la mise en œuvre d’un projet « Big Data » Les data étant devenues le nouveau nerf de la guerre au sein des organisations, les professionnels de tous les secteurs d’industrie, et ce, quelle que soit leur fonction, doivent désormais se muer en véritables experts des données... Mais encore faut-il que les entreprises aient amorcé le changement .... On comprend aisément que l’idée de se plonger dans des tableaux de bord, dans SQL ou dans Hadoop n’a rien d’évident si l’on n’est pas informaticien. Mais il existe désormais des outils d’exploration des données qui n’exigent pas plus de compétences que celles requises pour une utilisation basique d’Excel. Par ailleurs, une nouvelle catégorie d’outils de détection des données voit actuellement le jour. Ces outils dits de "Data discovery" permettent d’explorer très intuitivement les données par un simple glisser-déposer de variables, et de produire des visualisations instantanées sans avoir à taper la moindre ligne de code. 5) Une stratégie Big Data nécessite une vision à long terme.

Related: