Unifying All Enterprise Information. As a pioneer of the Meaning Based Computing (MBC) movement, Autonomy is a recognized leader in solving the difficult problem of analyzing unstructured content. But what about the rest of data in business applications, where a substantial amount of enterprise intelligence resides? Due to the challenge of processing different types of content in a siloed environment, most enterprise search vendors leave the processing of structured data to Business Intelligence (BI) technologies. However, maximizing business intelligence requires the proper integration and combined analysis of these disparate content types. For the heterogeneous enterprise that holds many sources of data, Autonomy's mature connector framework supports over 400 repositories to enable search across the entire enterprise corpus from a single interface.
Unified Information Access Content analytics Automatic Hyperlinking – IDOL allows manual and fully automatic linking between related pieces of information regardless of format. Open data : l’Europe veut concevoir son propre portail. La Commission européenne vient de publier son appel d’offres officiel pour la création de son propre portail open data. Il devra héberger les données partagées publiquement par la Commission et, par extension, tous les corps et institutions européens. Pour l’emporter, les candidats devront aussi aider la Commission à définir et implémenter des procédures de publication, et intéresser les utilisateurs finaux dans l’exploitation de ces données.
L’exécutif européen est prêt à investir jusqu’à 800 000 euros dans ce projet. Un portail test développé par les équipes internes de la Commission devra servir de base au nouveau site. La livraison d’une première version du portail serait attendue en mars 2012. Il est basé sur LAMP (Linux, Apache, MySQL, PHP), Drupal et CKAN (Comprehensive Knowledge Archive Network). Une autre des conditions du contrat : le code développé devra être rendu open source et publié sur Osor.eu, ou tout autre référentiel de projets open source.
Wolfram|Alpha Comes Alive with CDF. August 11, 2011 Two weeks ago we made a major announcement: building on technology that we’ve been developing for more than 20 years, we released Computable Document Format (CDF). I think CDF is going to have a big effect on the way all sorts of things can be communicated. Because for the first time it makes it practical to include live computation as a routine part of a document. There are many important applications of CDF that we’ll no doubt be seeing over the months and years to come. Starting today, as soon as you have the free CDF plugin installed (or if you have Mathematica 8 on your system) you can go to the top right-hand corner of the Wolfram|Alpha website, and set CDF on, with the result that Wolfram|Alpha will generate not just a static web page, but instead full CDF output—that you can directly interact and compute with.
There are some immediate consequences—like rotating 3D graphics, interactively reading off values in plots, and resizing graphics inline. Data Ecosystem - Current. Open data : la guerre des mondes. Le mouvement de libération des données publiques (open data) donne parfois l’impression d’assister à la guerre des mondes. A ma gauche, les défenseurs du mouvement : s’ils saluent parfois les initiatives menées par quelques administrations ou collectivités locales, ils sont souvent rapides à dégainer pour dire que ce n’est pas assez, que les formats ne sont pas les bons, et puis que font les autres ? A ma droite, les services publics : ignorant ou sous-estimant le phénomène, ils semblent dépassés par les enjeux juridiques, économiques ou politiques.
Les risques liés à l’open data sont réels, il ne faut ni les ignorer ni sans servir de prétexte pour ne pas agir. En fait, le principal problème de l’open data, c’est probablement la méconnaissance mutuelle des acteurs concernés. Les réalités du monde public Les utopies du monde « libre » Il faut bien admettre qu’il s’agit d’un monde assez diffus, pour ne pas dire confidentiel, aussi bien pour le grand public que l’administration.
Building the (Open) Data Ecosystem. The following is a post by Rufus Pollock, co-Founder of the Open Knowledge Foundation. The Present: A One-Way Street At the current time, the basic model for data processing is a “one way street”. Sources of data, such as government, publish data out into the world, where, (if we are lucky) it is processed by intermediaries such as app creators or analysts, before finally being consumed by end users1. It is a one way street because there is no feedback loop, no sharing of data back to publishers and no sharing between intermediaries. So what should be different? The Future: An Ecosystem What we should have is an ecosystem. In addition, corrected data, or relevant “patches” should find their way back to data producers so data quality improves at the source.
With the introduction of data cycles we have a real ecosystem not a one way street and this ecosystem thrives on collaboration, componentization and open data. What is required to develop this ecosystem model rather than a one way street? The next Open Data battle: Advancing Policy & Innovation through Standards. With the possible exception of weather data, the most successful open data set out there at the moment is transit data. It remains the data with which developers have experimented and innovated the most. Why is this? Because it’s been standardized. Ever since Google and the City of Portland creating the General Transit Feed Specification (GTFS) any developer that creates an application using GTFS transit data can port their application to over 100+ cities around the world with 10s and even 100s of millions of potential users.
Now that’s scale! All in all the benefits of a standard data structure are clear. This is why, with a number of jurisdictions now committed to open data, I believe it is time for advocates to start focusing on the next big issue. The key, I think, is to find areas that meet three criteria: Government Data: Is there relevant government data about the service or issue that is available? Two comments on this. Which leads me to point two. Like this: Like Loading... L'Open Graph de Facebook - Agence Up 2 social.
OData – Introduction à l’Open Data Protocol « Istace Emmanuel. Salut. Comme beaucoup, une session a retenu mon attention lors des derniers techdays à Paris. Elle concerne OData, projet permettant d’exposer des données au travers de webservices en http, données identifiées par leurs URI. Jusque-là rien de bien nouveau me direz-vous ? Et bien, pas si sûr ;) OData et Rest OData (Open Data Protocol) est, comme son nom l’indique, un protocole d’échange de données ouvert et peut être vu comme une sorte de version avancée de REST. Basiquement, OData permet de récupérer en http des données sous forme de fichiers JSON ou ATOM (xml). Voici un exemple de requête qui pourrait être traduit par : « Affiche tous les clients dans la table Customers de la base Northwind » Ou encore : « Affiche tous les clients dans la table Customers de la base Northwind où le Contact Name est égal à Maria Anders » OData et Microsoft Open Specification Promise Top SqO.
IBM va investir dans l'analyse des gros volumes de données. Les outils manquants de l'OpenData, dans avenir. Réflexions au sujet des outils de l'OpenData, entamés lors de la préparation de mon intervention à l'événement L'OpenData et nous, et nous, et nous ? , davantage axées sur le point de vue du développeur et sur ce qu'il serait intéressant de faire au niveau technique. Le GoogHub de la donnée La décentralisation nécessite d'avoir un index centralisé, que ce soit Google pour le Web de documents ou GitHub pour les DCVS il faut un endroit où l'on puisse chercher parmi les sources, toujours plus nombreuses.
Un service est nécessaire pour indexer le Web des données, informer sur le versionnement et la fraîcheur des données, voire peut-être servir de proxy à une partie de ces données. Idéalement, dans un Web de données liées, un tel index serait moins utile car il suffirait de suivre les liens mais force est de constater que l'on en est aux données ouvertes et pas très liées. Des frameworks d'exploitation Une plateforme de monétisation. Open Data Manual. Publier pour le web des données et le faire savoir | Observatoire des technologies. Comme pour le web des documents, l’indexation des données publiées dans le web des données est importante. Il existe deux approches pour référencer ses données dans le web des données: créer un fichier VoID (Vocabulary for Interlinked Dataset) et le déclarer sur les principaux moteurs de recherche sémantiques tels que Sindice.
Un tel fichier permet de décrire le contenu d’un ensemble de données (informations de base, informations utiles, licences, sujets), les services associés à cet ensemble de données, et l’organisation du contenu (en sous ensembles de données notamment)créer un sitemap sémantique et le référencer sur les principaux moteurs de recherche sémantiques. Lisez l’article qui se trouve ici si vous souhaitez savoir comment créer en pratique un fichier VoID et un sitemap sémantique et comment les déclarer sur les moteurs de recherche sémantiques. Semantic-Web-Technologien in Content Management Systemen nutzen: Systeme mit Zukunft » t3n Magazin. Die Zeiten, in denen das Semantic Web als alltagsferne Spinnerei aus dem Elfenbeinturm angesehen wurde, sind vorbei.
Spätestens seit Google, Yahoo und Facebook auf den Zug aufgesprungen sind und semantisch angereicherte Daten entweder verarbeiten oder selbst anbieten, ist das Semantic Web in der Mitte des World Wide Web angekommen [1] . Content Management Systeme spielen bei der Verbreitung des Semantic Web eine zentrale Rolle. Über sie wird ein Großteil der Inhalte verwaltet und zu Webseiten aufbereitet. Sie liefern die fertigen Seiten aus, die, einmal um semantische Informationen angereichert, ein neues Gefühl des Surfens im Internet ermöglichen.
Derzeit ist zu beobachten, wie sich die Communitys der wichtigsten CMS verstärkt um die Integration des Semantic Web kümmern. Unter dem Begriff „Semantic Web“ wird im Allgemeinen eine Sammlung aufeinander aufbauender Standards und Technologien verstanden. Anwendungsfälle Drupal Weiter auf Seite 2: „TYPO3“ » Microdata + RDF. As part of the ongoing discussion about how to reconcile RDFa and microdata (if at all), Nathan Rixham has put together a suggested Microdata RDFa Merge which brings together parts of microdata and parts of RDFa, creating a completely new set of attributes, but a parsing model that more or less follows microdata’s. I want here to put forward another possibility to the debate. I should say that this is just some noodling on my part as a way of exploring options, not any kind of official position on the behalf of the W3C or the TAG or any other body that you might associate me with, nor even a decided position on my part.
Simplifying RDFa As I’ve said before, RDFa, in my experience, is complicated not primarily because of the whole namespaces/CURIEs issue but because its processing model tries to be too clever. Is first marked up to indicate that it’s an image: then to provide its license: and finally to add a title: all by adding attributes to the one <img> element. Multiple Types Summary. Using RDFa to create a Google Calendar | Delib Blog. Part of what we like to do in Delib is demonstrate how easy it can be explore to Linked Data and get more engagement from a public consultation process.
I’ve just spent an hour or so playing around with the idea of using RDFa and the Citizen Space Aggregator demo to create calendars of consultations: This calendar is embedded, not a screenshot – feel free to click around! The calendar above is a Beta version of a feature that I would hope to one day add into core Citizen Space. What I’ve done is take the RDFa information that is stored by the Aggregator from Bristol’s Consultation Finder, and provide a URL that outputs an iCal formatted version of the consultations that are being run.
You can then use this URL to create calendars either in Google, as I have, or subscribe to it using any piece of software that understands the iCal format, for example Apple’s iCal, or even your iPhone! For anyone interested in doing this, here is the URL: FOAF Manager - Semantic Web Trust Portal - Safelayer Sandbox. L'indexation des données dans le monde du Web sémantique. Retour au seizième siècle. Début de l'imprimerie. Les livres commençaient à se répandre. Les érudits avaient de nouvelles sources. Cependant, tout n'allait pas forcément pour le mieux dans le meilleur des mondes : outre le fait que tout le monde n'avait pas accès à la connaissance, il fallait encore savoir... ce qui était disponible. 1595. Leiden, Pays-Bas. Le premier catalogue imprimé. Enfin, on pouvait savoir à Berlin ce que contenait une bibliothèque. D'autres bibliothèques ont suivi le mouvement, bien évidemment, pour ne pas se retrouver entièrement dépassées.
Le Web des données se situe dans la même position : beaucoup de données sont disponibles, mais on ne sait pas qu'elles existent. Le Web tel qu'actuellement connu, le Web des documents, permet lui aussi de faire des recherches, de trouver de l'information, grâce aux moteurs de recherche. Il n'y a pas une seule et unique source de contenu. Cette solution a pu se développer à l'échelle actuelle du Web. IV-A. IV-A-1. IV-A-2. IV-B. Licences OpenData : L’APIE grille la priorité à ÉtaLab et invente le pseudo-libre. Lorsque plusieurs administrations travaillent ensemble, elles essaient généralement de coordonner leurs actions de communication. Cela devrait donc être le cas entre la mission ÉtaLab, l’APIE, le COEPIA et les administrations des différents ministères dans la mesure où elles ont été chargées par le Premier Ministre de travailler ensemble, sous la direction d’ÉtaLab, sur la question d’une licence gratuite de ré-utilisation des données publiques durant l’été.
Licence gratuite de l’APIE : une sortie surprenante Aperçu de la licence V2 de l’APIE C’est donc avec une certaine surprise que le petit monde de l’OpenData français a découvert lundi dernier la publication sur le site de l’APIE du laconique message suivant : « L’APIE publie, à titre de contribution aux réflexions engagées dans le cadre d’Etalab et de la mise en ligne du portail data.gouv.fr, une version V2 de sa licence de réutilisation libre et gratuite. » La première surprise vient du nom retenu par l’APIE. Development « RDF Header-Dictionary-Triples (HDT) Vocabulary and Dataset - Library Linked Data. W3C Library Linked Data Incubator Group: Datasets, Value Vocabularies, and Metadata Element Sets The final report has been published at Please ignore this wiki page for any reason other than historical!
Authors: Antoine Isaac, William Waites, Jeff Young, Marcia Zeng. Introduction: Scope and Definitions This document, a deliverable from the W3C Library Linked Data Incubator Group, is an attempt to identify a set of useful resources for creating or consuming Linked Data in the library domain. It is intended both for novices seeking an overview of the Library Linked Data domain, and for experts in search of a quick look-up or refresher. The final report @@@CITE@@@ of the Incubator Group suggests that the success of Linked Data in any domain relies on the ability of its practitioners to identify, re-use, or connect to already available datasets and data models. Library Linked Data at CKAN CKAN is a registry for data. Published Datasets. Schema Creator - Améliorez votre référencement avec les microdatas. IKS Paris Workshop Wrap-up. Sur le chemin du Web intelligent. Social Web and Semantic Web: towards synergy between folksonomies a... Berlin SPARQL Benchmark.