background preloader

Comprendre le web sémantique

Comprendre le web sémantique
Le Web sémantique, ou « langage naturel » est le Saint Graal sur lequel planchent les chercheurs depuis quelques années. Pour un de ses théoriciens, Tim Berners-Lee, l'idée est de parvenir à un Web intelligent, où les informations ne seraient plus stockées mais comprises par les ordinateurs, pour apporter à l'utilisateur ce qu'il cherche vraiment. Le Web sémantique permettra donc de rendre le contenu sémantique du Web interprétable non seulement par l'homme, mais aussi par la machine. L'idée est donc de permettre une recherche intelligente sur le Web, faite par des ordinateurs et basée sur des définitions qu'ils puissent « comprendre », des définitions données pour le monde entier. En faisant une requête sur un moteur proposant de la recherche en langage naturel, vous l'interrogerez comme vous parlez, et il transformera cette demande en langage compréhensible et cohérent pour la machine. Le principe du Web sémantique Premiers développements et usages Trulia À savoir Le moteur de Evi Powerset Related:  Intelligence Artificielle Robert

Laurence Devillers : l’empathie des robots Laurence Devillers est Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Elle nous parle des dimensions affectives dans nos interactions avec les machines. Avec elle, nous pouvons imaginer ces robots à venir qui participeront au soin des personnes âgées, les aideront dans leurs tâches quotidiennes, leurs permettront de rester plus longtemps autonomes. Cela nous conduit évidemment à réfléchir à un autre sujet : il ne faudrait pas que de tels robots deviennent une excuse pour nous décharger sur eux du soin de personnes qui doivent aussi être entourées par des humains.Laurence Devillers est membre de la CERNA, la commission de réflexion sur l’Ethique de la recherche en sciences et technologies du Numérique d’Allistène et a participé au rapport sur l’Ethique du chercheur en robotique. Elle participe également à une initiative mondiale IEEE sur l’éthique dans la conception de systèmes autonomes.

Introduction - Introduction to ontologies and semantic web - tutorial This site introduces ontologies and semantic web, with the emphasis on how ontologies are defined and used for semantic web applications today (more about this site background is here). This tutorial is extracted from the introductory chapter of the dissertation that deals with the applications of ontologies in multi-agent systems - Marek Obitko (advisor Vladimir Marik): Translations between Ontologies in Multi-Agent Systems, Ph.D. dissertation, Faculty of Electrical Engineering, Czech Technical University in Prague, 2007. Enough for introduction, you can choose the Next buttons to continue reading or select any topic of interest from the menu on the left. (c) Marek Obitko, 2007 - Terms of use

Le web sémantique ou le futur du Web | un blog, des blogs L’expression « Web sémantique » a été utilisée la première fois en 1994 par Tim Berners-Lee, l’inventeur du World Wide Web et directeur du World Wide Web Consortium (« W3C »), qui supervise le développement des technologies communes du Web sémantique. En 1999, Tim Berners-Lee a exprimé la vision du Web sémantique comme suit : « J’ai fait un rêve pour le Web [dans lequel les ordinateurs] deviennent capables d’analyser toutes les données sur le Web — le contenu, liens, et les transactions entre les personnes et les ordinateurs. Un « Web Sémantique », qui devrait rendre cela possible, n’a pas encore émergé, mais quand ce sera fait, les mécanismes plan-plan d’échange, de bureaucratie et de nos vies quotidiennes seront traités par des machines dialoguant avec d’autres machines. Les « agents intelligents » qu’on nous promet depuis longtemps vont enfin se concrétiser. » — Weaving the Web Le « Layer cake » de Tim Berners-Lee Voici une autre excellente vidéo (et en français !) (Source : BnF)

Robot journaliste : en un an, une IA créée par le Washington Post a publié 850 articles - Tech Le Washington Post recourt depuis désormais un an aux services d'une intelligence artificielle pour écrire des articles. Baptisé Heliograf, ce croisement entre un robot et un journaliste a signé plus de 800 textes, en couvrant des actualités politiques et sportives. Quand vous êtes en train de lire la prose d’un journaliste, prêtez-vous attention à l’identité de l’auteur ou de l’autrice ? De l’autre côté de l’Atlantique, les lecteurs du Washington Post peuvent désormais lire, depuis un an, des articles intégralement rédigés par un journaliste qui n’a pas forme humaine. Or, cette intelligence artificielle n’a pas été mise en sommeil après la fermeture des jeux. Au cours de sa première année de fonctionnement, l’intelligence artificielle du Washington Post a publié près de 850 articles. 500 articles consacrés aux élections ont généré 500 000 clics Cet exemple de journalisme assisté par une IA n’est pas un cas isolé.

"The Internet of Things is Already Here" - Dispatches From Internetome Internetome, the U.K.'s first full day conference dedicated to the Internet of Things was held on Nov 10 in London. In front of a full attendance, with representatives from academia, government, and enterprise, a wide range of speakers illustrated the promise and the challenges of the complex systems based on smart sensor networks. The Economist magazine featured in its current issue a special report on Smart Systems, underlining how rich, and important these ICT solutions have become, and how they will in the future sustain value added services for a wide set of vertical application areas. Guest author David Orban is the Chairman of Humanity+, an organization dedicated to promoting understanding, interest, and participation in fields of emerging innovation. "We do not know how these tiny chips will transform our lives, and that is the beauty of it." John Woodget, Global Director for the Telecommunications sector, Intel Next on stage was myself. View more presentations from David Orban.

Quel sera le web de demain ? web 3.0: Sémantique, 3D...? A la question « Quel sera le web de demain? » beaucoup d'avis avec des points de vue divergents. Cette question peut d’ailleurs être aborder sous deux angles différents, l’évolution de la technologie du web d’une part (web 3.0, web sémantique, web 3D…) et l’évolution de l’utilisation du web (sociologie) d’autre part. Le point sur lequel tous les acteurs du web s’entendent est un constat simple: Le web a déjà connu plusieurs mutations depuis sa création et d’autres sont à venir. Web 3.0, sémantique, 3d, oui mais encore… Il existe des études et des sources permettant de dater les périodes des différentes versions du Web (web 1.0, 1.5, 2.0, 2.5, 2.B …, web 3.0), elles apparaissent parfois contradictoires. Qu’est ce que le web 1.0, le web 2.0 ? A partir des années 1995, le Web 1.0 se construit de manière pyramidale. Au fil de leur navigation, les internautes ajoutent du contenu au travers de liens hypertextes et autres tags, annotations ou commentaires. Que nous réserve encore le web 3.0 ?

Quel cerveau pour la voiture du futur ? - L'Atelier BNP Paribas Damien Delcroix, Directeur Ingénierie et Systèmes Embarqués Automobile d'Assystem explique le pourquoi de cette inflation : « Le nombre de calculateurs dans une automobile est la réponse au croisement des trois champs de contraintes suivants : propriété intellectuelle, équation économique et attentes du marché en terme d’innovations. » Il est ainsi techniquement difficile de faire comme en informatique classique et installer plusieurs logiciels sur une même plateforme : « Pour garantir que les différents systèmes de la voiture réagissent correctement dans toutes les situations de conduites, il faut pouvoir traiter les informations des capteurs et piloter les actionneurs en conséquence et ce plusieurs dizaines de fois par secondes.

Easier in RDFa: multiple types and the influence of syntax on semantics RDF is defined as an abstract data model, plus a collection of practical notations for exchanging RDF descriptions (eg. RDF/XML, RDFa, Turtle/N3). In theory, your data modelling activities are conducted in splendid isolation from the sleazy details of each syntax. RDF vocabularies define classes of thing, and various types of property/relationship that link those things. And then instance data uses arbitrary combinations of those vocabularies to make claims about stuff. All that said, syntactic considerations can mess with your modelling. RDF instance data, ie. descriptions of stuff, is peculiar in that it lets you use multiple independent schemas at the same time. Backstory – decentralised extensibility RDF classes from one vocabulary can be linked to more general or specific classes in another; we use rdfs:subClassOf for this. This kind of machine-readable (RDFS/OWL) documentation of the patterns of meaning amongst properties (and classes) has many uses.

Related: