background preloader

Du contenu roi aux données reines

Du contenu roi aux données reines
Souvenez-vous… il y a quelques années, le contenu était considéré comme la matière première du web : Celui qui maîtrisait le contenu maitrisait le web (les portails qui agrégeaient de très nombreuses sources de contenu concentraient également l’audience). Puis il y a eu MySpace, les Skyblogs, Facebook, Twitter, FourSquare… et maintenant il parait que c’est la communauté qui est reine. Certes, les plateformes sociales sont indéniablement en haut des tableaux d’audience, mais je reste convaincu que sans contenus une communauté n’est pas viable. Comprenez par là que ce sont les contenus qui alimentent les conversations et font tourner les communautés. De ce point de vue là, les plateformes sociales ne sont qu’un intermédiaire entre le contenu et les internautes. Les données à la base du… journalisme de données Nous parlons bien ici de données brutes en très grande quantité (des chiffres) qu’il serait trop coûteux de traiter. Après les portails de contenus, les portails de données

Wen Mining Course Unit on Web Log Analysis Web Mining Course Modules To get the presentations, add www.kdnuggets.com/web_mining_course/ in front of ppt files below Module 1: Introduction to Web Mining wm1-web-mining-intro.pptModule 2a: Web Server Log wm2a-web-server-log.pptModule 2b: Unix tools for web log analysis wm2b-unix-web-log-analysis.pptModule 3a: Hit Analysis wm3a-hit-analysis.ppt Module 3b: Gawk tools for web log analysis< wm3b-gawk-web-log-analysis.ppt Module 4a: Visit Analysis; Bot or Not? wm4a-visit-analysis.ppt Module 4b: Perl tools for web log analysis wm4b-perl-web-log-analysis.ppt Basic Perl script for web log parsing (web_log_parse.txt) Module 5: Behavior modeling wm5-behaviour-analysis.ppt Assignments Note: Professors using these modules can get answers by contacting Gregory Piatetsky directly at gregory at kdnuggets dot com. Data This data can be downloaded from kdlog.zip (0.6 MB) in www.kdnuggets.com/web_mining_course/ directory. First 100 log lines are in the unzipped file d100.log in the same directory.

Des social graph aux interest graph Souvenez-vous, il y a deux ans je vous parlais de Gravity, une start-up qui avait pour ambition de révolutionner les forums : Gravity = Forum 2.0 ?. La particularité de cette start-up était de miser sur un algorithme assez complexe permettant d’enrichir les profils des membres en fonction de leurs lectures / contributions. Traduction : des profils qualifiés en fonction de ce que les utilisateurs font et non de ceux qu’ils connaissent. Cette approche centrée sur les goûts n’est ps nouvelle, car elle est déjà utilisée par des services de recommandation musicale comme Pandora. Celles et ceux qui ont pu tester Pandora il y a quelques années (avant la restriction aux utilisateurs US) savent a quel point leur moteur de recommandation est supérieur aux autres. Tout le problème des systèmes de recommandation communautaires est qu’ils ont tendance à niveler par le bas et ne vous propose que les produits qui ont une bonne popularité moyenne auprès de la communauté.

L'exploration des données à la portée des non-initiés En téléchargeant un module d'extension du tableur Excel développé par 11Ants, les TPE-PME peuvent accéder à des outils d'analyse mathématiques auparavant réservés aux seuls experts. Pour amener les petites et moyennes entreprises (PME) à se servir d'outils de modélisation mathématiques et de prévision statistique, il faut intégrer ceux-ci dans des logiciels qu'elles connaissent. En suivant cette logique, 11Ants propose une solution qui intègre des fonctions de calculs de probabilités et d'analyse prédictive à Excel. "Nous éliminons l'intimidation des non-initiés en intégrant des outils de 'data mining' à un environnement qui leur est familier", explique à L'Atelier Tom Fuyala, l'un des responsables du projet. Plus concrètement, les fonctions introduites correspondent à une série de techniques mathématiques développées par l'université néo-zélandaise de Waikato. Des algorithmes ajoutés aux paramètres Une solution avantageuse pour les petites entreprises

Information Overload Fueled by Bytes, and Hype Six Stunning Projects That Show the Power of Data Visualization Data visualization is taking the web by storm and, with a little luck, it might be the next big thing in online journalism. Buoyed by the open data movement and accelerating change in newsrooms around the country, it has become something more than just flashy graphics and charts — it is a new form of visual communication for the 21st century. In the coming months, I’ll be writing about this emerging field for MediaShift. What is Data Visualization? At its core, data visualization is the visual representation of information served up with a healthy dose of innovation and creativity. This periodic table of visualization methods by the folks over at VisualLiteracy.org illustrates a number of different elements or viz building blocks. Below, you’ll find six examples of data visualization from around the web and across the globe that provide an overview of the techniques and approaches to data visualization. 1. Hans Rosling makes stats come alive 2. An image from the Geography of a Recession 3.

L'homme, un visible La visibilité : chercher la valeur dans un numérique abondant Le groupe Spoon vient de vendre 100 000 albums par l'intermédiaire du label indépendant Merge, tout ceci, grâce à la visibilité permise par le Net sans aucune aide de l'industrie musicale classique. Le cas de Spoon n'est pas isolé et de nombreuses expériences apparaissent de plus en plus qui vont dans le même sens avec plus ou moins de réussite. Du coup, il serait peut-être utile de comprendre comment un artiste indépendant peut tirer partie de la visibilité apportée par le Net. La visibilité est la valeur Dans un système abondant (les œuvres numériques par exemple), la visibilité est la seule valeur qu'il faut en priorité rechercher. D'abord, il faut comprendre que la visibilité d'un artiste dépend bien sûr de son talent. La visibilité est la valeur sans aucun doute. La rareté est à rechercher dans l'attention de l'individu On peut s'avancer à souligner que la rareté n'est plus à rechercher dans les biens.

Qu'est-ce que le Big Data Quand Henri Verdier, CEO de Cap Digital, revient de Silicon Valley en s'écriant «tout ce que nous connaissions du web va changer à nouveau avec le phénomène des big data», il est temps de faire un petit tour d'horizon. «Big Data» est une expression qui circule depuis quelque temps dans la niche hi-tech de l'informatique dématérialisée (computer in the cloud) et qui fait référence aux outils, processus et procédures permettant à une entreprise de créer, manipuler et gérer de très larges quantités de données. (What is "Big Data?" Si les géantes corporations (on pense à Google, Visa, eBay, Amazon) sont déjà sur ce terrain, la possibilité de gérer du «Big Data» commence à être accessible pour les plus petites entreprises (Big data analytics: From data scientists to business analysts, O'Reilly Radar). La démocratisation est en cours, et le «Big Data» s'installera au coeur des entreprises qui sauront y donner une valeur. La gestion de ces énormes bases ne se fait pas sans mal. Autres liens:

How much information is there in the world? Think you're overloaded with information? Not even close. A study appearing on Feb. 10 in Science Express, an electronic journal that provides select Science articles ahead of print, calculates the world's total technological capacity -- how much information humankind is able to store, communicate and compute. "We live in a world where economies, political freedom and cultural growth increasingly depend on our technological capabilities," said lead author Martin Hilbert of the USC Annenberg School for Communication & Journalism. So how much information is there in the world? Prepare for some big numbers: Looking at both digital memory and analog devices, the researchers calculate that humankind is able to store at least 295 exabytes of information. Telecommunications grew 28 percent annually, and storage capacity grew 23 percent a year. "These numbers are impressive, but still miniscule compared to the order of magnitude at which nature handles information" Hilbert said.

Le « journalisme artificiel » est en ligne C’était annoncé, c’est désormais chose faite. Les premiers articles entièrement rédigés par des « robots » sont en ligne sur le site de StatSheet. Pour l’instant, ces « journalistes artificiels » ne couvrent que le sport, mais Robbie Allen, le fondateur de cette startup américaine estime que cette technologie pourrait être utilisée à l’avenir dans d’autres domaines. Dans un article publié par Le Monde en mars 2009, Yves Eudes décrivait Stats Monkey, un programme d’intelligence artificielle développé par un laboratoire d’intelligence artificielle (infolab), rattaché à l’université de Northwestern, à Chicago: Il [Stats Monkey] travaille automatiquement de A à Z. À l’époque, l’article avait suscité une certaine émotion. Pour certains sujets, nous ne faisons appel ni à des journalistes, ni à des redacteurs humains. Les robots de StatSheet, vu par Robbie Allen, son fondateur Avec StatSheet, en tout cas, le pas est franchi [le site semble encore instable]. Le résultat est surprenant.

Related: