background preloader

Vers un Nouveau Monde de données

Vers un Nouveau Monde de données
A l'occasion de la Semaine européenne des l'Open Data qui se déroulait à Nantes du 21 au 26 mai 2012, j'étais invité à faire une présentation sur le web des données, pour dépasser et élargir la problématique particulière de la réutilisation des données publiques. En voici la transcription. Nous sommes passés d'un web de l'information et de la connaissance à un web de données. "Les données sont le nouveau pétrole de l'économie", expliquait le consultant Clive Humby dès 2006. Tim O'Reilly et John Battelle ne disaient pas autre chose quand ils imaginaient le concept de Web² devenu depuis (et il serait intéressant de regarder comment) celui des Big Data. Nous n'échapperons pas à l’exploitation maximale de la puissance des données par l’analyse, la combinaison, la représentation, la recherche, le traitement... Le web est un écosystème de bases de données interconnectées. Tout est information. Le web est devenu "la base de données de nos intentions", affirmait John Battelle en 2003.

Données ouvertes en France Un article de Wikipédia, l'encyclopédie libre. Les données ouvertes (Open Data en anglais) permettent à des entités comme l'État français, des collectivités territoriales, des entreprises (principalement publiques) ou autres organisations de rendre publiques certaines données. [modifier | modifier le code] Ces données doivent en principe répondre à certains critères pour être réellement ouvertes. gratuites : une réutilisation des données est gratuite par les particuliers et les entreprises, car ces données sont produites par des services publics.complètes : la majorité des données doit être présente. Historique des données ouvertes en France[modifier | modifier le code] En France, les publications commencent dans le domaine du droit en 2002[1] (8 ans avant le gouvernement britannique qui a ouvert son site « Acts and statutory »[2] en 2010). Cadre législatif[modifier | modifier le code] Un fondement ancien à la libération des données publiques[modifier | modifier le code]

Los Angeles Murders and Homicides - The Homicide Report - Los Angeles Times Tracking homicides in Chicago - Tracking homicides in Chicago | RedeyeChicago.com OpenRefine Hacks/Hackers » Journalism x Technology Interactive currency-comparison tool: The Big Mac index 10 Best Web Scraping Tools to Extract Online Data Web Scraping tools are specifically developed for extracting information from websites. They are also known as web harvesting tools or web data extraction tools. These tools are useful for anyone trying to collect some form of data from the Internet. Web Scraping is the new data entry technique that don’t require repetitive typing or copy-pasting. These software look for new data manually or automatically, fetching the new or updated data and storing them for your easy access. In this post, we’re listing the use cases of web scraping tools and the top 5 web scraping tools to collect information, with zero codings. 39 Free Web Services & Tools To Monitor Website Downtime 39 Free Web Services & Tools To Monitor Website Downtime An online portal of your business brings traffic and the last thing we want is for the site... Why Use Web Scraping Tools? To Collect Data for Market Research To Extract Contact Info To Download Solutions from StackOverflow To Look for Jobs or Candidates 1. 2. 3. 4. 5. 5.

Datajournos - Accueil No Coding Required: A Step-by-Step Guide to Scraping Websites With Data Miner – Global Investigative Journalism Network Knowing where to look for data — and how to access it — should be a priority for investigative journalists. Effective use of data can not only improve the overall quality of an investigation, but increase its public service value. Over the last 20 years, the amount of data available has grown at an unprecedented rate. According to the International Data Corporation (IDC), by 2025 the collective sum of the world’s data will reach 175 zettabytes (one zettabyte is one trillion gigabytes; as IDC puts it, if one could store the 2025 datasphere onto DVDs, the resulting line of DVDs would encircle the Earth 222 times). Some estimates claim that Google, Facebook, Microsoft, and Amazon alone store at least 1,200 petabytes (one petabyte = one million gigabytes) of data between them. In data journalism, as with any kind of journalistic practice, we look for ways to access all kinds of data, such as from leaks, from thousands of pdf files, or from indexes recorded on websites — organized or not. 1.

Related: