background preloader

Le datajournalisme: vecteur de sens et de profits

Le datajournalisme: vecteur de sens et de profits
Face à l'avalanche d'informations, les techniques de datamining permettent d'extraire du sens de bases de données. La confiance devient la ressource rare, créatrice de valeur. Et les médias peuvent s'en emparer. Ce post reprend les éléments d’une réflexion amorcée avec Mirko Lorenz et Geoff McGhee dans un article intitulé Media Companies Must Become Trusted Data Hubs [en] et présentée à la conférence re:publica XI. Chaque jour, nous produisons deux ou trois exaoctets [en] de données, soit 1 million de téraoctets. Dans le même temps, Facebook et ses 600 millions d’utilisateurs produisent à eux seuls 70 téraoctets, soit à peine 0.007% du total. Si l’on veut synthétiser toute l’information produite en quelque chose de digeste pour l’utilisateur final, il faut résumer par un facteur de 100 milliards. Pour faire sens de cette hyper-abondance de contenus, les professionnels de l’information doivent adopter de nouvelles techniques. Toute information est une donnée Médias liquides

[itw] Income, le datajournalisme appliqué En plein développement, le datajournalisme a besoin d'exemples marquants pour prouver son intérêt. "Income", de Catherine Mulbrandon, en est un. Le datajournalisme est au centre de toutes les attentions. Motivés par un mélange d’espoir et de peur, des journalistes, développeurs et lecteurs souhaitent que l’utilisation de données conduise à un journalisme augmenté. Mais une question reste en suspens: quelqu’un va-t-il payer dans cet océan de contenus gratuits? Il reste tout de même de l’espoir, comme le montre cette histoire. La rapidité de la communication sur les réseaux a un effet secondaire: les concepts sont souvent trop utilisés et deviennent des buzzwords, puis déçoivent, avant même d’être prêts. La question la plus souvent posée reste “Mais en quoi est-ce différent de ce que l’on a déjà ? Des exemples, SVP On a besoin d’exemples montrant réellement comment les données peuvent faire la différence. L’une des grandes promesses du journalisme de données est que cela peut changer.

Comment faire pour analyser les entrées du fichier journal générées par le programme vérificateur de ressources (SFC.exe) Microsoft Windows dans Windows Vista Cet article explique comment faire pour analyser les fichiers journaux générés par le programme vérificateur de ressources (SFC.exe) Microsoft Windows dans Windows Vista. Présentation Vous pouvez utiliser le programme SFC.exe pour le dépannage d'incidents qui se produisent dans la partie Mode utilisateur de Windows Vista. Ces incidents peuvent être liés à des fichiers du système d'exploitation manquants ou endommagés. Le programme SFC.exe effectue les opérations suivantes : Il vérifie que les fichiers système Windows Vista non configurables n'ont pas été modifiés. Comment faire pour analyser le fichier journal généré par le programme SFC.exe Comment faire pour afficher le fichier journal Le programme SFC.exe écrit les détails de chaque opération de vérification et de chaque opération de réparation dans le fichier CBS.log. Remarque Le service Installateur de modules Windows écrit également dans ce fichier journal. Comment faire pour interpréter les entrées du fichier journal

Orbital Content We are on the cusp of a complete overhaul of the way in which we interact with online content, and I think you should be a hell of a lot more excited than you currently are. Bookmarklet apps like Instapaper, Svpply, and Readability are pointing us toward a future in which content is no longer entrenched in websites, but floats in orbit around users. This transformation of our relationship with content will force us to rethink existing reputation, distribution, and monetization models—and all for the better. Content today#section1 Most online content today is stuck. In this system, the sites are the gravitational center and we, the users, orbit them, reaching out for a connection whenever we want to interact with the content. Websites have responded quickly to these new demands. Publishers have had the ability to make their content flexible for over a decade. Content shifting#section2 Calling Instapaper a content shifter tells only half the story. Content liberation#section3

The Necessity of Data Journalism in the New Digital Community This is the second post in a series from Nicholas White, the co-founder and CEO of The Daily Dot. It used to be, to be a good reporter, all you had to do was get drunk with the right people. Sure, it helped if you could string a few words together, but what was really important was that when news broke, you could get the right person on the phone and get the skinny. Or when something scandalous was going down somewhere, someone would pick up the phone and call you. Increasingly today, in selecting and training reporters, the industry seems to focus on the stringing-words-together part. That’s not how we’re building our newsroom at The Daily Dot. One: Our very first newsroom hire, after our executive editor, was Grant Robertson, who’s not only a reporter and an editor, but also a programmer. We found it necessary to push early in this direction because of our unique coverage area and we’re in the fortunate position of being able to build our newsroom from scratch. How do we report on that?

« Un datajournaliste n’écrit pas un article, il fait une visualisation interactive. » Interview de Caroline Goulard de Dataveyes | Data News Rencontre avec Caroline Goulard, fondatrice de Dataveyes, qui nous explique comment naît et se construit un travail de datajournalisme avec “l’atlas des partis politiques” co-brandé avec l’Express.fr. Data News: Comment es-tu tombée dans le datajournalisme et la datavisualisation ? Caroline Goulard : Il y a une transformation fondamentale de notre paysage informationnel et les data sont en train de prendre un rôle important dans notre univers d’information. Ces données, on sait très mal les gérer et les appréhender, très mal les manier pour en extraire de l’information, donc il y a là un enjeu majeur en terme d’information. Il y a aussi une prise de conscience que nous sommes beaucoup trop centrés sur l’intelligence verbale notamment sur le web et cela va changer dans les prochaines années. Comment a commencé cette collaboration avec l’Express ? Naviguez dans la nébuleuse des mouvements politiques en cliquant sur l’image Pourquoi ce sujet ? Comment se construit une telle visualisation ?

Procédure d'analyse d'un fichier journal UNIX/Linux Mis à jour: mai 2009 S'applique à: Operations Manager 2007 R2 Vous pouvez utiliser le modèle Fichier journal UNIX/Linux pour créer une analyse permettant de rechercher une entrée de journal spécifique dans des fichiers journaux. La procédure suivante vous indique comment utiliser le modèle de pack d'administration Fichier journal UNIX/Linux. Démarrez l'Assistant Ajout d'analyse.

Abrams Abstract The effective long-term curation of digital content requires expert analysis, policy setting, and decision making, and a robust technical infrastructure that can effect and enforce curation policies and implement appropriate curation activities. Since the number, size, and diversity of content under curation management will undoubtedly continue to grow over time, and the state of curation understanding and best practices relative to that content will undergo a similar constant evolution, one of the overarching design goals of a sustainable curation infrastructure is flexibility. In order to provide the necessary flexibility of deployment and configuration in the face of potentially disruptive changes in technology, institutional mission, and user expectation, a useful design metaphor is provided by the Unix pipeline, in which complex behavior is an emergent property of the coordinated action of a number of simple independent components.

Scraping for Journalism: A Guide for Collecting Data Photo by Dan Nguyen/ProPublica Our Dollars for Docs news application lets readers search pharmaceutical company payments to doctors. We’ve written a series of how-to guides explaining how we collected the data. Most of the techniques are within the ability of the moderately experienced programmer. The most difficult-to-scrape site was actually a previous Adobe Flash incarnation of Eli Lilly’s disclosure site. Lilly has since released their data in PDF format. These recipes may be most helpful to journalists who are trying to learn programming and already know the basics. If you are a complete novice and have no short-term plan to learn how to code, it may still be worth your time to find out about what it takes to gather data by scraping web sites -- so you know what you’re asking for if you end up hiring someone to do the technical work for you. The tools With the exception of Adobe Acrobat Pro, all of the tools we discuss in these guides are free and open-source. A Guide to the Guides

Related: