Web sémantique
Logo du W3C pour le Web sémantique Le Web sémantique, ou toile sémantique[1], est une extension du Web standardisée par le World Wide Web Consortium (W3C)[2]. Ces standards encouragent l'utilisation de formats de données et de protocoles d'échange normés sur le Web, en s'appuyant sur le modèle Resource Description Framework (RDF). Le web sémantique est par certains qualifié de web 3.0 . Alors que ses détracteurs ont mis en doute sa faisabilité, ses promoteurs font valoir que les applications réalisées par les chercheurs dans l'industrie, la biologie et les sciences humaines ont déjà prouvé la validité de ce nouveau concept[5]. Histoire[modifier | modifier le code] Tim Berners-Lee à l'origine exprimait la vision du Web sémantique comme suit : I have a dream for the Web [in which computers] become capable of analyzing all the data on the Web — the content, links, and transactions between people and computers. — Tim Berners-Lee, Weaving the Web[13] — Weaving the Web[13]
Web sémantique, personnalisation des résultats,… Oubliez aujourd’hui tout ce vous croyez savoir sur le référencement
Cela fait des années que l’on annonce la mort du référencement mais aujourd’hui ou le moindre amateur peu ouvertement s’apercevoir que ce métier a vécu, les référenceurs s’enferment dans un déni repoussant sans cesse la mutation nécessaire de leur métier. Alors que le monde de la visibilité internet a aujourd’hui changé à tout jamais les référenceurs appliquent toujours les mêmes vieille méthodes. Se concentrant sur des positionnements de mots clef toujours plus contestable et des méthodes d’expérimentations ne pouvant fournir d’échantillon mesurable d’une quelconque influence sur les moteurs de recherche. Je sais en écrivant cet article combien les mots que je vais utiliser vont soulever un torrent d’insultes et autres réactions extrêmes alors que mon propos n’est pas de négliger ou mépriser le travail réalisé par bon nombre de ces prestataires soucieux de satisfaire leur clientèle. 1 – Les usages d’internet ont totalement changés 2 – Le contenu d’internet n’est plus le même. Conclusion :
L'Internet des objets : Internet, mais en mieux: Amazon.fr: Philippe Gautier, Laurent Gonzalez
Laurence Devillers : l’empathie des robots
Laurence Devillers est Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Elle nous parle des dimensions affectives dans nos interactions avec les machines. Avec elle, nous pouvons imaginer ces robots à venir qui participeront au soin des personnes âgées, les aideront dans leurs tâches quotidiennes, leurs permettront de rester plus longtemps autonomes. Cela nous conduit évidemment à réfléchir à un autre sujet : il ne faudrait pas que de tels robots deviennent une excuse pour nous décharger sur eux du soin de personnes qui doivent aussi être entourées par des humains.Laurence Devillers est membre de la CERNA, la commission de réflexion sur l’Ethique de la recherche en sciences et technologies du Numérique d’Allistène et a participé au rapport sur l’Ethique du chercheur en robotique. Elle participe également à une initiative mondiale IEEE sur l’éthique dans la conception de systèmes autonomes.
Le Web 3.0 : état des lieux et perspectives d'avenir
De grands bouleversements actuels et accélérés autour de certaines technologies et services de l’information et de la communication sont en train d’émerger. Comment en est-t-on arrivé là ? Pourquoi l’Internet de demain va-t-il jouer un rôle fondamental pour les entreprises, les services et les particuliers ? Un petit rappel sur l'histoire et l'évolution du Web en termes de développement s'impose avant de comprendre les enjeux du Web à venir. 1 - Le Web d'hier à aujourd'hui Même s’il existe des sources permettant de dater les périodes des différentes versions du Web, elles apparaissent parfois contradictoires et il serait certainement plus juste de parler d’ère du Web en considérant les périodes comme des espaces de temps. 1.1 – L’ère du Web 1.0 Le Web 1.0 s'est construit autour d'une forme pyramidale. 1.2 – L’ère du Web 2.0 La production de contenu se fait par les internautes et l'hébergement par les entreprises (Champeau, 2007 — Gai, 2007). 2 - Le Web 3.0, concepts et technologies
CubicWeb Semantic Web Framework
Web sémantique : Google active son Knowledge Graph en français
Google a attendu le lancement de la conférence LeWeb 2012 pour annoncer le déploiement en France et dans six autres pays de sa base de données Knowledge Graph. Celle-ci permet d'introduire une dose de web sémantique dans les résultats de recherche. Par exemple, une recherche sur la Tour Eiffel donne à la fois des résultats sous forme de liens vers des sites web, mais également une boîte d'informations sur l'objet de la recherche lui-même. Mieux cibler les recherches Le Knowledge Graph était déjà déployé depuis cet été, mais à partir de la base de données en anglais. Cet outil doit permettre d'apporter d'autres informations sur une recherche, dans la veine de ce qu'on trouve déjà à des degrés divers ailleurs. Pour Google, qui détaille son annonce dans un billet de blog, il s'agit de mieux cibler les recherches - en proposant de lever l'ambiguïté sur une requête par exemple, d'apporter plus d'informations rapidement, mais aussi de "faire des découvertes inattendues."
Robot journaliste : en un an, une IA créée par le Washington Post a publié 850 articles - Tech
Le Washington Post recourt depuis désormais un an aux services d'une intelligence artificielle pour écrire des articles. Baptisé Heliograf, ce croisement entre un robot et un journaliste a signé plus de 800 textes, en couvrant des actualités politiques et sportives. Quand vous êtes en train de lire la prose d’un journaliste, prêtez-vous attention à l’identité de l’auteur ou de l’autrice ? De l’autre côté de l’Atlantique, les lecteurs du Washington Post peuvent désormais lire, depuis un an, des articles intégralement rédigés par un journaliste qui n’a pas forme humaine. Or, cette intelligence artificielle n’a pas été mise en sommeil après la fermeture des jeux. Au cours de sa première année de fonctionnement, l’intelligence artificielle du Washington Post a publié près de 850 articles. 500 articles consacrés aux élections ont généré 500 000 clics Cet exemple de journalisme assisté par une IA n’est pas un cas isolé.