Opendata technique

Facebook Twitter
Unifying All Enterprise Information Unifying All Enterprise Information As a pioneer of the Meaning Based Computing (MBC) movement, Autonomy is a recognized leader in solving the difficult problem of analyzing unstructured content. But what about the rest of data in business applications, where a substantial amount of enterprise intelligence resides? Due to the challenge of processing different types of content in a siloed environment, most enterprise search vendors leave the processing of structured data to Business Intelligence (BI) technologies.
Open data : l’Europe veut concevoir son propre portail La Commission européenne vient de publier son appel d’offres officiel pour la création de son propre portail open data. Il devra héberger les données partagées publiquement par la Commission et, par extension, tous les corps et institutions européens. Pour l’emporter, les candidats devront aussi aider la Commission à définir et implémenter des procédures de publication, et intéresser les utilisateurs finaux dans l’exploitation de ces données. Open data : l’Europe veut concevoir son propre portail
August 11, 2011 Two weeks ago we made a major announcement: building on technology that we’ve been developing for more than 20 years, we released Computable Document Format (CDF). I think CDF is going to have a big effect on the way all sorts of things can be communicated. Wolfram|Alpha Comes Alive with CDF Wolfram|Alpha Comes Alive with CDF
Data Ecosystem - Current | Flickr : partage de photos !
Open data : la guerre des mondes Open data : la guerre des mondes Le mouvement de libération des données publiques (open data) donne parfois l’impression d’assister à la guerre des mondes. A ma gauche, les défenseurs du mouvement : s’ils saluent parfois les initiatives menées par quelques administrations ou collectivités locales, ils sont souvent rapides à dégainer pour dire que ce n’est pas assez, que les formats ne sont pas les bons, et puis que font les autres ? A ma droite, les services publics : ignorant ou sous-estimant le phénomène, ils semblent dépassés par les enjeux juridiques, économiques ou politiques. Les risques liés à l’open data sont réels, il ne faut ni les ignorer ni sans servir de prétexte pour ne pas agir. En fait, le principal problème de l’open data, c’est probablement la méconnaissance mutuelle des acteurs concernés.
Building the (Open) Data Ecosystem The following is a post by Rufus Pollock, co-Founder of the Open Knowledge Foundation. The Present: A One-Way Street At the current time, the basic model for data processing is a “one way street”. Building the (Open) Data Ecosystem
The next Open Data battle: Advancing Policy & Innovation through Standards The next Open Data battle: Advancing Policy & Innovation through Standards With the possible exception of weather data, the most successful open data set out there at the moment is transit data. It remains the data with which developers have experimented and innovated the most. Why is this? Because it’s been standardized.
L’architecture technique de Facebook
L'Open Graph de Facebook - Agence Up 2 social
OData – Introduction à l’Open Data Protocol « Istace Emmanuel Salut. Comme beaucoup, une session a retenu mon attention lors des derniers techdays à Paris. Elle concerne OData, projet permettant d’exposer des données au travers de webservices en http, données identifiées par leurs URI. OData – Introduction à l’Open Data Protocol « Istace Emmanuel
IBM va investir dans l'analyse des gros volumes de données
Les outils manquants de l'OpenData, dans avenir Réflexions au sujet des outils de l'OpenData, entamés lors de la préparation de mon intervention à l'événement L'OpenData et nous, et nous, et nous ?, davantage axées sur le point de vue du développeur et sur ce qu'il serait intéressant de faire au niveau technique. Le GoogHub de la donnée La décentralisation nécessite d'avoir un index centralisé, que ce soit Google pour le Web de documents ou GitHub pour les DCVS il faut un endroit où l'on puisse chercher parmi les sources, toujours plus nombreuses. Un service est nécessaire pour indexer le Web des données, informer sur le versionnement et la fraîcheur des données, voire peut-être servir de proxy à une partie de ces données. Idéalement, dans un Web de données liées, un tel index serait moins utile car il suffirait de suivre les liens mais force est de constater que l'on en est aux données ouvertes et pas très liées. Les outils manquants de l'OpenData, dans avenir
Open Data Manual
Publier pour le web des données et le faire savoir | Observatoire des technologies Comme pour le web des documents, l’indexation des données publiées dans le web des données est importante. Il existe deux approches pour référencer ses données dans le web des données: créer un fichier VoID (Vocabulary for Interlinked Dataset) et le déclarer sur les principaux moteurs de recherche sémantiques tels que Sindice. Un tel fichier permet de décrire le contenu d’un ensemble de données (informations de base, informations utiles, licences, sujets), les services associés à cet ensemble de données, et l’organisation du contenu (en sous ensembles de données notamment)créer un sitemap sémantique et le référencer sur les principaux moteurs de recherche sémantiques. Publier pour le web des données et le faire savoir | Observatoire des technologies
Semantic-Web-Technologien in Content Management Systemen nutzen: Systeme mit Zukunft » t3n Magazin Semantic-Web-Technologien in Content Management Systemen nutzen: Systeme mit Zukunft » t3n Magazin Die Zeiten, in denen das Semantic Web als alltagsferne Spinnerei aus dem Elfenbeinturm angesehen wurde, sind vorbei. Spätestens seit Google, Yahoo und Facebook auf den Zug aufgesprungen sind und semantisch angereicherte Daten entweder verarbeiten oder selbst anbieten, ist das Semantic Web in der Mitte des World Wide Web angekommen [1] . Content Management Systeme spielen bei der Verbreitung des Semantic Web eine zentrale Rolle. Über sie wird ein Großteil der Inhalte verwaltet und zu Webseiten aufbereitet.
Microdata + RDF As part of the ongoing discussion about how to reconcile RDFa and microdata (if at all), Nathan Rixham has put together a suggested Microdata RDFa Merge which brings together parts of microdata and parts of RDFa, creating a completely new set of attributes, but a parsing model that more or less follows microdata’s. I want here to put forward another possibility to the debate. I should say that this is just some noodling on my part as a way of exploring options, not any kind of official position on the behalf of the W3C or the TAG or any other body that you might associate me with, nor even a decided position on my part.
Part of what we like to do in Delib is demonstrate how easy it can be explore to Linked Data and get more engagement from a public consultation process. I’ve just spent an hour or so playing around with the idea of using RDFa and the Citizen Space Aggregator demo to create calendars of consultations: This calendar is embedded, not a screenshot – feel free to click around! The calendar above is a Beta version of a feature that I would hope to one day add into core Citizen Space. What I’ve done is take the RDFa information that is stored by the Aggregator from Bristol’s Consultation Finder, and provide a URL that outputs an iCal formatted version of the consultations that are being run. Using RDFa to create a Google Calendar | Delib Blog
FOAF Manager - Semantic Web Trust Portal - Safelayer Sandbox
Retour au seizième siècle. Début de l'imprimerie. Les livres commençaient à se répandre. Les érudits avaient de nouvelles sources. Cependant, tout n'allait pas forcément pour le mieux dans le meilleur des mondes : outre le fait que tout le monde n'avait pas accès à la connaissance, il fallait encore savoir... ce qui était disponible. L'indexation des données dans le monde du Web sémantique
Licences OpenData : L’APIE grille la priorité à ÉtaLab et invente le pseudo-libre Lorsque plusieurs administrations travaillent ensemble, elles essaient généralement de coordonner leurs actions de communication. Cela devrait donc être le cas entre la mission ÉtaLab, l’APIE, le COEPIA et les administrations des différents ministères dans la mesure où elles ont été chargées par le Premier Ministre de travailler ensemble, sous la direction d’ÉtaLab, sur la question d’une licence gratuite de ré-utilisation des données publiques durant l’été. Licence gratuite de l’APIE : une sortie surprenante Aperçu de la licence V2 de l’APIE C’est donc avec une certaine surprise que le petit monde de l’OpenData français a découvert lundi dernier la publication sur le site de l’APIE du laconique message suivant : « L’APIE publie, à titre de contribution aux réflexions engagées dans le cadre d’Etalab et de la mise en ligne du portail data.gouv.fr, une version V2 de sa licence de réutilisation libre et gratuite. »
Development « RDF Header-Dictionary-Triples (HDT)
Vocabulary and Dataset - Library Linked Data W3C Library Linked Data Incubator Group: Datasets, Value Vocabularies, and Metadata Element Sets The final report has been published at http://www.w3.org/2005/Incubator/lld/XGR-lld-vocabdataset/. Please ignore this wiki page for any reason other than historical! Authors: Antoine Isaac, William Waites, Jeff Young, Marcia Zeng. Introduction: Scope and Definitions This document, a deliverable from the W3C Library Linked Data Incubator Group, is an attempt to identify a set of useful resources for creating or consuming Linked Data in the library domain.
Schema Creator - Améliorez votre référencement avec les microdatas
IKS Paris Workshop Wrap-up | IKS Blog – The Semantic CMS Community
Sur le chemin du Web intelligent
Social Web and Semantic Web: towards synergy between folksonomies a...
Berlin SPARQL Benchmark