background preloader

Open data

Facebook Twitter

Neo4j

Open data 71 : un projet de qualité, mais des résultats en demi-teinte. Focus Mardi 28 Aout 2012 En juin 2011, le Département de Saône-et-Loire a décidé d’ouvrir et de partager les données publiques dont il dispose par le biais du projet "Open data 71". Un an après, retour, avec Pierre Paul Penillard, directeur du projet ‘’Open data 71’’, sur les leçons à tirer de la première ouverture des données au niveau départemental.

Quelle est l’origine de l’ouverture des données en Saône–et-Loire ? La libération des données en Saône-et-Loire tient en premier lieu à une volonté politique très forte, liée à la commande du président du Conseil général, Arnaud Montebourg, aujourd’hui ministre du Redressement productif, et qui en a fait un projet important de démocratie. La particularité du projet mené a été de libérer tout ce que la loi nous autorise, sans se donner de limite dans la libération des données. La transparence n’est-elle pas que formelle quand l’ouverture n’est pas accompagnée d’une formation à destination des citoyens ? Propos recueillis par Jade Bouchemit. Opendata & Quality. Cela fait un tour de temps que je navigue et observe ce qui est mis en ligne sous le nom d’Opendata.

Bien sûr, ce sont des données, bien sûr elles sont mises à disposition, bien sûr il y a souvent une fiche de méta données plus ou moins complètes, et il y a même des portails qui s’organisent pour les mettre en catalogue … bref ce sont là des ingrédients qui disent que ce sont bien des données publiques répondant aux exigences d’un cahier des charges. Mais justement, parlons un peu de ce cahier des charges. Il y a comme une partie importante du problème qui est oubliée. Le jeu de données, le dataset, doit être intrinsèquement de qualité et cette qualité semble ne pas être clairement définie. Aujourd’hui, le dataset est de mieux en mieux défini extérieurement.

Par exemple, un fichier produit par un traitement de textes a peu de chance de servir à quelque chose dans un dispositif de traitement automatique sauf si on a déjà l’application faite juste pour ce fichier. Donnees publiques. Paris Sémantique. Les outils manquants de l'OpenData, dans avenir. Réflexions au sujet des outils de l'OpenData, entamés lors de la préparation de mon intervention à l'événement L'OpenData et nous, et nous, et nous ?

, davantage axées sur le point de vue du développeur et sur ce qu'il serait intéressant de faire au niveau technique. Le GoogHub de la donnée La décentralisation nécessite d'avoir un index centralisé, que ce soit Google pour le Web de documents ou GitHub pour les DCVS il faut un endroit où l'on puisse chercher parmi les sources, toujours plus nombreuses. Un service est nécessaire pour indexer le Web des données, informer sur le versionnement et la fraîcheur des données, voire peut-être servir de proxy à une partie de ces données. Idéalement, dans un Web de données liées, un tel index serait moins utile car il suffirait de suivre les liens mais force est de constater que l'on en est aux données ouvertes et pas très liées. Des frameworks d'exploitation Une plateforme de monétisation. | CommonCrawl.