background preloader

Explorez les 668 commissions ministérielles... et leurs budgets

Explorez les 668 commissions ministérielles... et leurs budgets

Los Angeles Murders and Homicides - The Homicide Report - Los Angeles Times Autour du cercueil de Jacques Vergès se retrouvent ceux qui ne se fréquentent pas Le Monde.fr | • Mis à jour le | Par Raphaëlle Bacqué A l'entrée de l'église, une gerbe de roses rouges est posée à-même le sol de pierre, barrée d'un ruban : "Amitié. Georges Ibrahim Abdallah". La foule qui piétine remarque à peine, pourtant, les fleurs envoyées depuis sa prison de Lannemezan (Hautes-Pyrénées) par le chef présumé de la Fraction armée révolutionnaire libanaise, que défendit Jacques Vergès. Ils sont là, justement, ces milieux qui ne se fréquentent pas et s'étonnent de se retrouver à l'église Saint-Thomas-d'Aquin, à deux pas du boulevard Saint-Germain, pour enterrer religieusement celui que l'on appelait "l'avocat du diable". Dans les premiers rangs, une demi-douzaine de travées sont évidemment occupées par les confrères du barreau, venus en robe noire. L'Algérie, elle, a dépêché sa ministre de la culture, Khalida Toumi-Messaoudi, en hommage à celui qui défendit les premiers militants du FLN.

Tracking homicides in Chicago - Tracking homicides in Chicago | RedeyeChicago.com Vers un Nouveau Monde de données A l'occasion de la Semaine européenne des l'Open Data qui se déroulait à Nantes du 21 au 26 mai 2012, j'étais invité à faire une présentation sur le web des données, pour dépasser et élargir la problématique particulière de la réutilisation des données publiques. En voici la transcription. Nous sommes passés d'un web de l'information et de la connaissance à un web de données. "Les données sont le nouveau pétrole de l'économie", expliquait le consultant Clive Humby dès 2006. Le web est un écosystème de bases de données interconnectées. Tout est information. Le web est devenu "la base de données de nos intentions", affirmait John Battelle en 2003. La première des données, le pétrole non raffiné, est bien celle de nos comportements en ligne, ces milliards de clics que nous faisons sur le web à chaque instant. Mais ne nous y trompons pas. Il n'y a presque plus de données qui ne soient pas personnelles. Voici une application qui s'appelle SceneTAP. Tout est appelé à devenir des données.

Données ouvertes en France Un article de Wikipédia, l'encyclopédie libre. Les données ouvertes (Open Data en anglais) permettent à des entités comme l'État français, des collectivités territoriales, des entreprises (principalement publiques) ou autres organisations de rendre publiques certaines données. [modifier | modifier le code] Ces données doivent en principe répondre à certains critères pour être réellement ouvertes. Ces critères sont : gratuites : une réutilisation des données est gratuite par les particuliers et les entreprises, car ces données sont produites par des services publics.complètes : la majorité des données doit être présente. Historique des données ouvertes en France[modifier | modifier le code] En France, les publications commencent dans le domaine du droit en 2002[1] (8 ans avant le gouvernement britannique qui a ouvert son site « Acts and statutory »[2] en 2010). Cadre législatif[modifier | modifier le code] Un fondement ancien à la libération des données publiques[modifier | modifier le code]

OpenRefine Hacks/Hackers » Journalism x Technology Interactive currency-comparison tool: The Big Mac index 10 Best Web Scraping Tools to Extract Online Data Web Scraping tools are specifically developed for extracting information from websites. They are also known as web harvesting tools or web data extraction tools. These tools are useful for anyone trying to collect some form of data from the Internet. These software look for new data manually or automatically, fetching the new or updated data and storing them for your easy access. In this post, we’re listing the use cases of web scraping tools and the top 5 web scraping tools to collect information, with zero codings. 39 Free Web Services & Tools To Monitor Website Downtime 39 Free Web Services & Tools To Monitor Website Downtime An online portal of your business brings traffic and the last thing we want is for the site... Why Use Web Scraping Tools? Web Scraping tools can be used for unlimited purposes in various scenarios but we’re going to go with some common use cases that are applicable to general users. To Collect Data for Market Research To Extract Contact Info 1. 2. 3. 4. 5. 5. Pricing

Datajournos - Accueil No Coding Required: A Step-by-Step Guide to Scraping Websites With Data Miner – Global Investigative Journalism Network Knowing where to look for data — and how to access it — should be a priority for investigative journalists. Effective use of data can not only improve the overall quality of an investigation, but increase its public service value. Over the last 20 years, the amount of data available has grown at an unprecedented rate. Some estimates claim that Google, Facebook, Microsoft, and Amazon alone store at least 1,200 petabytes (one petabyte = one million gigabytes) of data between them. Access to, or finding, structured data — defined as data in a clearly defined, standardized format ready for analysis — from the oceans of bad or incomplete data (including false data, dirty, faulty, or “rogue” data, fake data, scattered data, and unclear data) is still difficult, no matter the field. However, there are tools and methods that make it both enjoyable and simple — such as scraping data from websites. The benefits of data scraping for journalists include: How Journalists Can Use Data Miner 1. 3. 4.

Related: