background preloader

Journalisme de données

Facebook Twitter

Index. 10 Best Web Scraping Tools to Extract Online Data. Web Scraping tools are specifically developed for extracting information from websites. They are also known as web harvesting tools or web data extraction tools. These tools are useful for anyone trying to collect some form of data from the Internet. Web Scraping is the new data entry technique that don’t require repetitive typing or copy-pasting. These software look for new data manually or automatically, fetching the new or updated data and storing them for your easy access. For example, one may collect info about products and their prices from Amazon using a scraping tool. Read more: Free services & tools to monitor website downtime Why Web Scraping Tools?

Twitter Publish. Curator. How Much Is It Really? - Spending Stories. Interactive currency-comparison tool: The Big Mac index. Interactive currency-comparison tool: The Big Mac index.

Créateurs base de données

Statistiques. Data-driven investigations - Detective.io. Hacks/Hackers » Journalism x Technology. Conversion données. Data-Visualisation. Bienvenue - Guide du datajournalisme. Enigma. OpenRefine. Who wants what in the European Union - OpenInterests. Data journalism and data visualization from the Datablog.

Syria conflict: three years on – interactive. Tracking homicides in Chicago - Tracking homicides in Chicago. Los Angeles Murders and Homicides - The Homicide Report - Los Angeles Times. U.S. Congress Campaign Contributions and Voting Database. Explorez les 668 commissions ministérielles... et leurs budgets. Www.alternatives-economiques.fr/fic_bdd/article_pdf_fichier/1274372604_cac40_3.swf. Les données pour votre business. Data journalism and data visualization. Periscopic: Do good with data.

Vers un Nouveau Monde de données. A l'occasion de la Semaine européenne des l'Open Data qui se déroulait à Nantes du 21 au 26 mai 2012, j'étais invité à faire une présentation sur le web des données, pour dépasser et élargir la problématique particulière de la réutilisation des données publiques.

Vers un Nouveau Monde de données

En voici la transcription. Nous sommes passés d'un web de l'information et de la connaissance à un web de données. "Les données sont le nouveau pétrole de l'économie", expliquait le consultant Clive Humby dès 2006. Tim O'Reilly et John Battelle ne disaient pas autre chose quand ils imaginaient le concept de Web² devenu depuis (et il serait intéressant de regarder comment) celui des Big Data. Nous n'échapperons pas à l’exploitation maximale de la puissance des données par l’analyse, la combinaison, la représentation, la recherche, le traitement...

Le web est un écosystème de bases de données interconnectées. Tout est information. Le web est devenu "la base de données de nos intentions", affirmait John Battelle en 2003. Données ouvertes en France. Un article de Wikipédia, l'encyclopédie libre.

Données ouvertes en France

Les données ouvertes (Open Data en anglais) permettent à des entités comme l'État français, des collectivités territoriales, des entreprises (principalement publiques) ou autres organisations de rendre publiques certaines données. [modifier | modifier le code] Ces données doivent en principe répondre à certains critères pour être réellement ouvertes.

Ces critères sont : gratuites : une réutilisation des données est gratuite par les particuliers et les entreprises, car ces données sont produites par des services publics.complètes : la majorité des données doit être présente. Historique des données ouvertes en France[modifier | modifier le code] En France, les publications commencent dans le domaine du droit en 2002[1] (8 ans avant le gouvernement britannique qui a ouvert son site « Acts and statutory »[2] en 2010).