background preloader

Données publiques : l’infrastructure sociale est aussi importante que l’infrastructure technique

Données publiques : l’infrastructure sociale est aussi importante que l’infrastructure technique
Tim Davies (blog personnel), de la société de conseil Practical Participation vient de mettre en ligne son rapport sur l’impact des données publiques ouvertes (le rapport au format .pdf). Son étude avait pour but d’observer la valeur produite par le site de libération de données britannique, data.gov.uk. Qui utilise ces données ? Comment les données libérées sont-elles utilisées dans la pratique ? Comme il l’explique dans un billet du blog Open Data Impacts, l’infrastructure sociale autour du projet britannique d’ouverture des données est au moins aussi important que l’infrastructure technologique. “Les données ne sont pas réservées aux développeurs”, rappelle-t-il. Le défi ne repose pas seulement sur l’harmonisation de la mise en forme, rappelle Tim Davies. A quoi et à qui servent les données ? Bien sûr, le sondage en ligne sur lequel se base Tim Davies n’a pas été un grand succès (72 réponses seulement). Des données ouvertes… et puis ?

L’Open Data: une idée de gauche? » Article » OWNI, Digital Journalism Le mouvement d'ouverture des données publiques peut-il être situé sur l'échiquier politique classique? C'est la question à laquelle cet article essaye de répondre. L’ouverture des données publiques est un sujet d’actualité, en particulier à l’heure où des collectivités comme Rennes Métropole se lancent dans des projets concrets. Pour comprendre la dimension politique de l’Open Data, il faut aller de l’autre côté de l’Atlantique. Une contribution majeure « Government as a platform » est rédigée par Tim O’Reilly, l’éditeur-auteur-penseur américain à qui l’on doit le terme de Web 2.0. Pour résumer son propos : l’Open Government – dont l’Open Data est l’un des piliers – ce n’est pas utiliser les techniques du Web 2.0 (participation, réseaux sociaux, …) pour gérer les affaires publiques, c’est avant tout une démarche de ré-invention et de retour aux sources. Ré-inventer l’action publique Un Nicolas Hulot pour l’Open Data français ? @schignard Illustration CC FlickR opensourceway

Population - Statistiques d'état civil sur les naissances en 2009 En 2009, 793 420 bébés sont nés en France métropolitaine (tableau 34 France métropolitaine) et 31 221 dans les départements d'outre-mer, soit un total de 824 641 (tableau 34 France). Le nombre de naissances a diminué de 3 800 par rapport à 2008. La moitié de cette baisse s'explique mécaniquement par le fait que 2008 était une année bissextile. Le nombre de naissances hors mariage poursuit sa progression. Devenues majoritaires en 2006, elles représentent 53,7 % en 2009, contre 52,5 % en 2008 et 37,2 % en 1994. Au cours de la dernière décennie, la part des enfants nés de deux parents étrangers a peu évolué : 7,0 % en 2008, contre 6,6 % en 1999 (tableau 37 France). Cet Insee Résultats présente des données définitives tirées de l'exploitation des fichiers d'état civil sur les naissances :

Is It Time for Corporate Open Data? - csedev Governments have begun to benefit from open data portals; will corporations follow suit? Gap, the ubiquitous clothing retailer, recently encountered the wrath of the virtual consumer, due to a poll about a proposed new logo on Facebook. The heavy negative reaction to the new logo prompted the company to pull its suggested redesign, and offer statements of apology for “going about the process the wrong way.” Prior to the internet, corporations rarely retracted business decisions unless there was a lawsuit or a massive letter writing campaign. In many places, corporations now act with the power formerly accorded to nation-states. The old model of capitalism emphasized a conquer and destroy outlook. The idea of employment itself could be radically reconfigured; a roving ‘skills app’ which allows people who possess certain abilities in a given geographical area to list themselves as looking for work. Christopher Smith.

Propriété intellectuelle : quel prix pour les informations publiques L’opportunité, c’est l’article 15 de la loi sur la liberté d’accès aux documents administratifs du 17 juillet 1978 : « la réutilisation d’informations publiques peut donner lieu au versement de redevances ». Le moyen, ce sont les dispositions budgétaires prises dans deux décrets du 10 février 2009 et précisées par la circulaire du 30 mars 2009. Désormais, les administrations qui valorisent leurs informations publiques bénéficient d’un retour à 100% des revenus générés par les celles-ci. Et ils peuvent le faire en « sortant des clous » de la LOLF par l’intermédiaire des concours et attributions de produits. Grâce à ce moyen, les ministères sont désormais libres d’attribuer ces revenus et peuvent ainsi les imputer sur les dépenses qu’ils jugent prioritaires, y compris les dépenses de personnel. Les ministères peuvent-ils néanmoins valoriser l’information publique à n’importe quel prix ? La tarification des informations publiques, le principe : l’auto-gestion :

Quelques remarques sur les données publiques (#opendata) J'ai profité cette nuit du du vol vers Séoul pour essayer de mettre au clair quelques idées sur les données publiques. J’ai en effet été invité récemment à une conférence organisée par l’APIE, ou j’ai présenté quelques idées qui me semblaient de bon sens... Cependant, les réactions du public, et quelques tentatives de twittclash, m’ont montré que, finalement, tout le monde n’était pas sur la même longueur d’ondes. Voici donc les principaux points de mon analyse de cette question essentielle et porteuse d'un immense potentiel de création de valeur sociale et de croissance économique : 1- les données publiques sont le support d’une quantité inimaginable de services, de valeur ajoutée et de valeur sociale. Combien de services il y a peu impensables pourra-t-on rêver se ces données deviennent accessibles aux entrepreneurs ? Les données publiques peuvent donc devenir la plate-forme des services du futur tout comme le I-Phone est devenu la plate-forme d’innombrables applications.

Outils de recherches et de visualisation de données – Introduction (part 2) site web : www.arts-numerique.info Specify Comme promis je commence donc la semaine avec un article consacré aux outils de recherches et de visualisation de données. Je pensais détailler ces outils au fur et à mesure, mais je me suis vite rendu compte que je risquais de me perdre dans un domaine qui n’est finalement pas ma spécialité. Je vais donc plutôt proposer une page contenant une série de listes-sources sur le sujet. Vous pourrez retrouver les choix que je trouve les plus judicieux sur le portail www.arts-numeriques.info et les tester directement. prérequis pour les nuls, pour ceux qui croient savoir et pour les autres Liste de listes (moteurs de recherche et visualisation de données) Exalead - Constellation Liste de listes : visualisation de données Focus des outils du jour “Spezify” – mention spéciale.

L’ouverture des données publiques, et après Tous ceux qui, comme nous dans le cadre du programme Réutilisation des données publiques de la Fondation internet nouvelle génération, s’engagent en faveur de l’ouverture et de la réutilisation des données publiques, en espèrent des résultats féconds en termes de qualité de vie, de cohésion sociale, d’innovation et de croissance. Mais les choses pourraient se passer tout autrement. Nous devons commencer à penser aux conséquences de l’ouverture des données, pour nous assurer qu’elles soient majoritairement positives. Ceux qui militent en faveur de l’ouverture des données publiques (ou non, d’ailleurs) et de leur réutilisation par les citoyens, les chercheurs et les entrepreneurs, espèrent qu’il en sortira quelque chose de bon. Ils ont sans doute une idée différence de ce qu’est ce « quelque chose », et de ce que « bon » veut dire : je peux considérer qu’il est bon de créer de la valeur marchande à partir de données publiques gratuites, alors que d’autres ne le penseront pas. Bifurcations

Données publiques en France: Girondins vs Montagnards ? » Articl La proposition n°22 du rapport Riester suggère la création d’une plateforme d’innovation de services ci-nommée « Etat Lab » qui permettrait aux acteurs tiers de développer des services innovants à partir de données publiques. La semaine dernière, @nicolasvoisin indiquait sur Twitter la création prochaine d’un état lab en France. Je n’avais pas réussi à trouver la source de l’information mais c’est chose faite grâce à @epsiplatform, il s’agit de la page 38 du rapport Riester remis la semaine dernière à Eric Woerth et Nathalie Kosciusko-Morizet. Etat lab La proposition n°22 du rapport Riester suggère la création d’une plateforme d’innovation de services ci-nommée « Etat Lab » qui permettrait aux acteurs tiers de développer des services innovants à partir de données publiques*. Cette plateforme prendrait appui sur le futur portail national de l’APIE (Agence du Patrimoine Immatériel de l’Etat) de mise à disposition des données publiques et serait initialisée fin 2010.

Meet the Big Data Equivalent of the LAMP Stack Many Fortune 500 and mid-size enterprises are funding Hadoop test/dev projects for Big Data analytics, but question how to integrate Hadoop into their standard enterprise architecture. For example, Joe Cunningham, head of technology strategy and innovation at credit card giant Visa, told the audience at last year’s Hadoop World that he would like to see Hadoop evolve from an alpha/beta environment into mainstream use for transaction analysis, but has concerns about integration and operations management. What’s been missing for Big Data analytics has been a LAMP (Linux, Apache HTTP Server, MySQL and PHP) equivalent. While that’s still a lot of moving parts for an enterprise to install and manage, we’re almost to a point where there’s an end-to-end “hello world” for analytical data management. With the benefit of this emerging analytical platform, data science is becoming more integral to businesses, and less a quirky, separate function.

Will the government spending data really change the world? | Simon Rogers Government data releases of spending over £25,000 have been spurred on by Francis Maude. But what will it achieve? Photograph: Martin Argles for the Guardian Well, there are a lot of numbers in there. Spurred on by Francis Maude at the Cabinet Office, every government department has released each transaction over £25,000. It's about £80bn of an annual spend of £670bn – the single most detailed public spending data release in British history. The release is the latest in a series of major data publications by the government, which came into power determined to unleash a "tsunami of data". The government has certainly adopted transparency in a big way. Yet there has been criticism of the way some data has been released. As for the data itself, it covers over nearly 200,000 individual transactions, payments to suppliers and bills covered by government departments in the first five months of the life of the coalition. But will it change anything?

La Ville de Paris donne accès à ses données La Ville de Paris possède une multitude de données encore inexploitées et inconnues du grand public. Informations sur les espaces verts, les résultats électoraux, la collecte des déchets… à la fin du mois, toutes les bases de données de la commune seront mises à disposition du public et des entreprises via un site web et un serveur dédiés. En choisissant une politique d'Open Data (données ouvertes), la ville donne aux habitants l'opportunité d'inventer de nouveaux services à destination des Parisiens ou/et de créer des applications inédites (géolocalisation du kiosque le plus proche, des espaces verts, des plans de voiries...). Pour mettre en œuvre ce projet, la fondation Open Knowledge a développé une licence, transcrite en droit français par les services municipaux. Les entreprises, désireuses de reprendre ces informations à des fins commerciales, devront accepter de partager leur création avec les internautes.

The Data Decade « VCMike's Blog You heard it here first: the 20-10′s are going to be the decade of data. The troves of data being generated by the web are increasingly being captured, structured, and harnessed to add insight, intelligence and value to all kinds of business and personal activity. I’ve written about my excitement in the emerging data economy, at the time thinking primarily about web advertising. The underlying factor for this, of course, is the rising universality of the web itself, creating a trail of data behind human activity that has never before existed. The existence of the cloud allows entrepreneurs to handle compute-intensive tasks that scaled data storage and analysis require; open source software like Hadoop also makes possible data-intensive distributed applications; and dynamic programming languages like Clojure simplifies multithreaded programming. Let’s check back in 2020 and see where we’ve come.

Journalists of the future need data skills, says Berners-Lee | Technology The tax database, visualised. Will future journalists create this? Photograph: guardian.co.uk Are you ready to be a journalist of the future? Better get your head wrapped around the idea of data, then, says Sir Tim Berners-Lee – who, you know, invented the world wide web (which as you also know is not the same as the entire internet). This morning at the release of huge tracts of government data about spending, a panel including Cabinet Office minister Francis Maude and Berners-Lee were asked who would analyse such data once the excited geeks had moved onto more interesting tasks (perhaps building the next Facebook). Berners-Lee's response: "the responsibility needs to be with the press. "Data-driven journalism is the future," he concluded. So – do you know what you need to know about working with data?

Related: