background preloader

Journalisme de données

Facebook Twitter

No Coding Required: A Step-by-Step Guide to Scraping Websites With Data Miner – Global Investigative Journalism Network. Knowing where to look for data — and how to access it — should be a priority for investigative journalists. Effective use of data can not only improve the overall quality of an investigation, but increase its public service value. Over the last 20 years, the amount of data available has grown at an unprecedented rate. According to the International Data Corporation (IDC), by 2025 the collective sum of the world’s data will reach 175 zettabytes (one zettabyte is one trillion gigabytes; as IDC puts it, if one could store the 2025 datasphere onto DVDs, the resulting line of DVDs would encircle the Earth 222 times).

Some estimates claim that Google, Facebook, Microsoft, and Amazon alone store at least 1,200 petabytes (one petabyte = one million gigabytes) of data between them. Investigative and data journalists are using more quantitative, qualitative, and categorical data than ever before — but obtaining good data is still a challenge. The benefits of data scraping for journalists include:

| général | Datajournos. Datajournos - Accueil. Index. 10 Best Web Scraping Tools to Extract Online Data. Web Scraping tools are specifically developed for extracting information from websites. They are also known as web harvesting tools or web data extraction tools. These tools are useful for anyone trying to collect some form of data from the Internet.

Web Scraping is the new data entry technique that don’t require repetitive typing or copy-pasting. These software look for new data manually or automatically, fetching the new or updated data and storing them for your easy access. For example, one may collect info about products and their prices from Amazon using a scraping tool. In this post, we’re listing the use cases of web scraping tools and the top 5 web scraping tools to collect information, with zero codings. 39 Free Web Services & Tools To Monitor Website Downtime 39 Free Web Services & Tools To Monitor Website Downtime An online portal of your business brings traffic and the last thing we want is for the site... Why Use Web Scraping Tools? To Collect Data for Market Research 1. 2. 3. Twitter Publish. Curator. How Much Is It Really? - Spending Stories. Interactive currency-comparison tool: The Big Mac index. Interactive currency-comparison tool: The Big Mac index.

Créateurs base de données

Statistiques. Data-driven investigations - Detective.io. Hacks/Hackers » Journalism x Technology. Conversion données. Data-Visualisation. Bienvenue - Guide du datajournalisme. Enigma. OpenRefine. Who wants what in the European Union - OpenInterests. Data journalism and data visualization from the Datablog | News. Syria conflict: three years on – interactive | World news. Tracking homicides in Chicago - Tracking homicides in Chicago | RedeyeChicago.com. Los Angeles Murders and Homicides - The Homicide Report - Los Angeles Times.

U.S. Congress Campaign Contributions and Voting Database | MapLight - Money and Politics. Explorez les 668 commissions ministérielles... et leurs budgets. Www.alternatives-economiques.fr/fic_bdd/article_pdf_fichier/1274372604_cac40_3.swf. Data Publica | Les données pour votre business. Data journalism and data visualization | News. Periscopic: Do good with data. Vers un Nouveau Monde de données. A l'occasion de la Semaine européenne des l'Open Data qui se déroulait à Nantes du 21 au 26 mai 2012, j'étais invité à faire une présentation sur le web des données, pour dépasser et élargir la problématique particulière de la réutilisation des données publiques. En voici la transcription. Nous sommes passés d'un web de l'information et de la connaissance à un web de données.

"Les données sont le nouveau pétrole de l'économie", expliquait le consultant Clive Humby dès 2006. Tim O'Reilly et John Battelle ne disaient pas autre chose quand ils imaginaient le concept de Web² devenu depuis (et il serait intéressant de regarder comment) celui des Big Data. Nous n'échapperons pas à l’exploitation maximale de la puissance des données par l’analyse, la combinaison, la représentation, la recherche, le traitement... Le web est un écosystème de bases de données interconnectées. Tout est information. Le web est devenu "la base de données de nos intentions", affirmait John Battelle en 2003. Données ouvertes en France. Un article de Wikipédia, l'encyclopédie libre. Les données ouvertes (Open Data en anglais) permettent à des entités comme l'État français, des collectivités territoriales, des entreprises (principalement publiques) ou autres organisations de rendre publiques certaines données.

[modifier | modifier le code] Ces données doivent en principe répondre à certains critères pour être réellement ouvertes. Ces critères sont : gratuites : une réutilisation des données est gratuite par les particuliers et les entreprises, car ces données sont produites par des services publics.complètes : la majorité des données doit être présente. Historique des données ouvertes en France[modifier | modifier le code] En France, les publications commencent dans le domaine du droit en 2002[1] (8 ans avant le gouvernement britannique qui a ouvert son site « Acts and statutory »[2] en 2010). Cadre législatif[modifier | modifier le code] Un fondement ancien à la libération des données publiques[modifier | modifier le code]