background preloader

"Informatique faute d'autre titre

Facebook Twitter

Vingt ans d’archivage du Web : les coulisses d’un projet titanesque. Depuis deux décennies, la fondation Internet Archive, avec d’autres institutions comme la BNF, consigne soigneusement la mémoire du Web pour les générations futures. LE MONDE | • Mis à jour le | Par Morgane Tual Il faut s’engouffrer dans les sous-sols de la Bibliothèque nationale François-Mitterrand pour y accéder. Sillonner de longs couloirs et déverrouiller quelques portes à l’aide d’un badge spécial. Une fois la dernière poussée, le bourdonnement est assourdissant, l’air perd quelques degrés et de massives armoires noires parsemées de diodes vertes clignotent. C’est ici que repose l’histoire du Web français. Comme les livres ou les journaux, le Web fait lui aussi l’objet d’un archivage minutieux. Il faut dire que son parcours est hors du commun : inscrit à l’« Internet Hall of Fame », qui récompense les personnes ayant notablement contribué au développement du Web, il devient multimillionnaire après avoir fondé puis vendu deux entreprises dans les années 1990.

. « Collectes d’urgence » Annotez images et captures d'écran, gratuitement. Szoter est un produit gratuit développé par mateusz@malczak.info; c'est à la fois une application en ligne et un logiciel (version Adobe Air) servant à annoter des images stockées sur votre ordinateur. Vous pouvez également utiliser Szoter pour capturer et annoter des screenshots. Dans l'une ou l'autre configuration, vous avez la possibilité de télécharger des images, dessiner sur celles-ci (esquisses, formes géométriques, lignes) et d'ajouter du texte. Lorsque vous avez terminé le travail d'annotation, vous pouvez alors enregistrer les images enrichies sur votre disque dur local ou les partager en ligne via vos réseaux sociaux préférés.

Szoter peut en outre être utilisé pour créer des captures d'écran annotées à partir d'une URL, de la webcam ou plus simplement d'une page web en cours de consultation. La vidéo ci-dessous donne un aperçu des fonctionnalités de Szoter : Szoter.com screencast from szoter on Vimeo Sources Szoter. Testé sous Windows 7 Illustration Shutterstock. CleanPrint. Personnalisez le contenu de votre curation. Datahero, ou la dataviz pour les nuls. Pas besoin d’être designer, statisticien et un gourou d’excel pour pouvoir générer des dataviz qui ont du sens et qui parlent. C’est le défi soulevé par Datahero, nouveau service de visualisation de données en ligne, actuellement en beta mais dont l’ouverture publique est imminente. Contrairement à des services et applications comme Tableau, Many Eyes, etc. Datahero accompagne l’utilisateur d’une manière beaucoup plus fluide et simple. A l’import, le service propose une connexion avec les principaux services de stockage en ligne comme Dropbox, Box et Drive.

Il est possible aussi d’importer son propre set de données à partir d’un fichier CSV (limité à 2Mo dans la version gratuite). Datahero va pouvoir ensuite et de manière intuitive, déterminer la nature des données importées (dates, texte, valeurs numériques, etc) et proposer sur cette base un ensemble de graphique générés de manière automatique. Articles similaires: OpenAccess / Open Access - quelques ressources pour entrer dans le débat. Internet, le conglomérat des réseaux.

Qu'est-ce que l'internet ? Littéralement, « internet » vient du néologisme anglais « internetting » qui désigne le fait d'interconnecter des réseaux. L'internet est donc un réseau de réseaux. Comment ça marche ? L'information circule sous forme de paquets acheminés indépendamment les uns des autres. Pour cela, chaque paquet contient un identifiant de la destination : son adresse IP.

La manière d'allouer les adresses IP et la manière d'acheminer les paquets sont intimement liées, c'est ce qui permet de faire fonctionner de concert plusieurs centaines de milliers de réseaux connectant ainsi plusieurs centaines de millions de machines entre elles. Ce document vise essentiellement à donner une idée des principes de base du fonctionnement de l'internet. 1. Comment les données circulent-elles dans l'internet ? Ce qui circule : des paquets Dans un réseau, l'information qui circule est découpée en unités élémentaires appelées paquets.

À l'intérieur d'un réseau Comment agréger les réseaux 2. 3. 4. Métadonnées - des écosystèmes par domaines. Les vocabulaires (schémas de métadonnées) par domaines ou disciplines constituent un de mes sujets de prédilection. Cela fait de nombreuses années déjà que j'attire l'attention de la profession "infodoc" dans son ensemble sur le déploiement de ces outils de représentation des connaissances et la nécessité, si ce n'est de maîtriser, a minima d'avoir une bonne connaissance et compréhension dans son domaine de spécialité, de ces vocabulaires ... de spécialités.

Cela devient même des ressources à répertorier ! Pour sensibiliser et donner des pistes, j'avais ainsi initié en 2006 un répertoire des vocabulaires normalisés (pdf). Un outil plutôt pédagogique qui ne pouvait entrer en concurrence avec les répertoires (registres) existants ou à venir... Aujourd'hui il existe de très (trop?) Nombreux répertoires de vocabulaires... Arrivent (enfin) des présentations de ces vocabulaires par domaines, par écosystèmes comme j'aime à les présenter.

A suivre donc,.... Quelques sources locales. Tarir le flux et vérouiller le code. Web is Dead. Avec quelques autres, et au risque de passer pour une nouvelle Cassandre, j'attire régulièrement l'attention (enfin j'essaie) sur les risques que le web ne devienne qu'un système mass-médiatique parmi d'autres, soumis aux mêmes logiques de rente, aux mêmes stratégies marketing, aux mêmes enfermements idéologiques (dernier en date "Le web : promesse tenue ? "). Or voici que deux nouvelles viennent une nouvelle fois confirmer, sinon que le web est mort (Web is Dead), à tout le moins qu'il présente quelques signes d'agonie passablement inquiétants.

Venons-en aux faits. Tarir le flux. La valeur d'une économie de l'abondance doit d'abord être mesurée à l'aune de la capacité de quelques acteurs d'en tarir subitement le flux. Google vient d'annoncer la fermeture prochaine d'un certain nombre de services, parmi lesquels GReader (le 1er Juillet 2013), son lecteur / aggrégateur de flux RSS. Faut-il revenir sur les raisons qui poussent Google à abandonner GReader ? Verrouiller le code.

Web is Dead. Côté sciences : qu'est-ce, au juste, que l'Open Access et pourquoi est-il important de le soutenir ? De multiples raisons me poussent à écrire cet article que je vais m’efforcer de faire court sur le Libre Accès (Open Access ou encore OA), un concept souvent mal compris et pourtant si important.

Cet article est le quatrième de la série « Côté sciences», dans laquelle est traité une à deux fois par semaine un sujet geek et scientifique qu’il soit d’actualité brûlante ou que j’ai simplement envie d’en parler. De multiples raisons me poussent à écrire cet article que je vais m’efforcer de faire court sur le Libre Accès (Open Access ou encore OA), un concept souvent mal compris et pourtant si important. D’abord il y a la triste nouvelle, celle du suicide d’Aaron Swartz le génie du web, co-fondateur de Reddit, créateur de l’architecture de l’Open Library, tête pensante derrière le RSS et fervent défenseur de la neutralité et de l’ouverture du net.

Comment publier un article scientifique ? Travailler assez pour avoir quelque chose de publiable ! Les journaux non-Open Access La solution ? Big Data : nouvelle étape de l’informatisation du monde. Viktor Mayer-Schönberger, professeur à l’Oxford internet Institute, et Kenneth Cukier, responsable des données pour The Economist ont récemment publié Big Data : une révolution qui va transformer notre façon de vivre, de travailler et penser (le site dédié). Ce livre est intéressant à plus d’un titre, mais avant tout pour ce qu’il nous apprend du changement du monde en cours. Riche d’exemples, facilement accessibles, il dresse un état compréhensible des enjeux des Big Data en insistant notamment sur ce que cette nouvelle étape de l’informatisation transforme. Le code n’est plus la loi ! « Les systèmes informatiques fondent leurs décisions sur des règles qu’ils ont été explicitement programmés à suivre. Quand un problème survient, nous pouvons donc revenir en arrière et comprendre pourquoi l’ordinateur a rencontré un problème.

Pour les auteurs, les Big Data créent une intelligence artificielle qu’aucun humain ne peut comprendre. Nous devons réinventer la protection de la vie privée. Les bibliothécaires, médiateurs dans l’océan du web. Les années 90 ont vu la consécration de la notion de collection à travers celle de politique documentaire. J’ai fait partie de ce « mouvement » (j’étais même dans feu le groupe poldoc) et je me suis beaucoup intéressé aux questions de politiques documentaire. Je l’écrivais il y a plus de 2 ans : trop souvent dans les bibliothèques les politiques documentaires ont été tirées vers une gestion des collections intelligente/réfléchie (dans le meilleur des cas hein, au pire une conception purement techniciste à base de taux de rotation ou d’une charte documentaire imposée par la direction) sans véritablement prendre en compte concrètement la médiation de ces collections.

C’est d’ailleurs pourquoi de ce point de vue global, il faut souvent plaider en formation pour la notion de “Projet de service” au lieu de “politique documentaire”, ou pire, de “politique d’acquisition”. Accueil d’un côté, contenus de l’autre. Tout est histoire d’interfaces. Paralysé ? Au fait, bonne rentrée ! Faire de l’archiviste le maillon fort de l’open data. Simon Chignard a publié hier, sur son blog donneesouvertes.info, un billet très intéressant. Il s’y interroge sur la nature des données mises à disposition par les administrations sur les différents portails open data.

Il constate notamment, pour résumer, un problème dans la qualité des jeux de données. Elles souffrent, selon lui, d’un manque de contextualisation qui peut parfois rendre difficile leur interprétation et donc leur exploitation par les réutilisateurs. D’un autre côté, il souligne le fait que de nombreux réutilisateurs ont besoin de données brutes. Les fichiers contenant autre chose que les données elles-mêmes (notamment des informations sur leur signification ou la façon de les interpréter) peuvent nuire à une exploitation peu ou prou automatisée.

Il termine en s’interrogeant sur la responsabilité de l’administration dans l’amélioration de la qualité des données mises à dispositions. Tout d’abord sur la contextualisation. L’archiviste le sait. La salle d'étude rebaptisée "Learning Center" rencontre désormais l'adhésion complète de son public. Le petit manuel de l’Open Data. Lexique de l’Open Data. Open data santé : l’Assemblée nationale se saisit du sujet. « Ouverture et utilisation des données publiques de santé », tel est le titre de la table ronde organisée le 23 avril prochain à l’Assemblée nationale à laquelle le député de la Nièvre Christian Paul a convié récemment une petite dizaine de personnalités. « Plusieurs initiatives récentes, des prises de positions venues de nombreux horizons ont interpellé justement les pouvoirs publics », indique le député. Rappelons par ailleurs qu’un sondage publié le 9 avril et réalisé par Deloitte et Harris Interactive auprès d’un échantillon représentatif de 2000 personnes indique que 78 % d’entre elles sont favorables « au partage de données informatiques de santé ».

Dans le cadre de sa fonction de rapporteur du budget de l’Assurance maladie, Christian Paul souhaite que l’Assemblée nationale aborde cette question « sans retard ». C’est pourquoi, « afin d’éclairer le travail parlementaire et nos prises de positions dans un futur proche », il organise cette table ronde.

Le Web de données : les ressources en ligne. Les bases de données steampunk des SHS | EPROTO. Vous avez sans doute croisé pas mal de gens qui ont fait une base de données pour leur thèse. Vous avez sans doute travaillé au sein d’un labo alimentant une base de données sous Access ou FileMaker Pro. Avez-vous recroisé ces données ? En lisant une thèse ayant nécessité la création de base de données spécifique, avez-vous eu accès à ladite base pour vérifier les résultats obtenus ?

Avez-vous accès aux bases montées par la plupart des labos pour leur travail ? Dix ans plus tard, pouvez-vous accéder aux bases de données qui ont permis l’écriture d’un travail ? C’est souvent difficile : on a perdu les fichiers, on ne sait plus comment c’était fait, machin a mis la main dessus et refuse l’accès aux autres.

Bien sûr certaines personnes finissent par donner accès à leur base via le web. Peut-on récupérer les données des bases publiées sur sa machine pour pouvoir les reprendre ? Vous pouvez faire une base de données, c’est bien, mais pas suffisant. Certes, il y a un problème. L’open data renforce-t-il le risque de désintermédiation. Mercredi dernier, j’ai emmené mon fils au cinéma. Pour préparer notre sortie j’ai recherché les horaires de cinéma. Google m’a proposé – avant les résultats des sites web correspondant à ma requête – la liste des films projetés actuellement dans ma ville, et un simple clic m’a permis de voir les prochaines séances.

Les horaires des films à Rennes (Google) A aucun moment je n’ai quitté la page du moteur de recherche, j’ai obtenu l’information recherchée sans consulter ni le site du cinéma, ni les multiples intermédiaires tels qu’Allociné ou Cinéfil.com. En tant qu’utilisateur, j’ai trouvé le service plutôt pratique (et en tant que père j’ai passé un bon moment avec mon fils). Cela s’appelle de la désintermédiation, ou plutôt une nouvelle intermédiation par un nouvel acteur. Dit autrement : est-on en train de faire entrer le loup dans la bergerie ? 1 – Le risque de désintermédiation cela concerne tout le monde (faites-vous dépister !) 4 – Où est le problème ? J'aime : J'aime chargement… Accueil (data.bnf.fr) 5 services pour connaître l'adresse derrière un lien raccourci. Ils font désormais partie de notre quotidien sur Internet, notamment sur Twitter : les liens raccourcis permettent en effet de réduire considérablement la taille d’un tweet contenant une adresse.

Il existe aujourd’hui de nombreux services web pour raccourcir une URL : Bitly, Goo.gl, Bzh.me… Ces sites proposent en général des options pour personnaliser les liens raccourcis et obtenir des statistiques. Les adresses réduites peuvent toutefois poser certains problèmes, car la page de destination n’est pas connue avant de cliquer sur le lien. Ainsi, les services qui proposent la réduction d’adresses peuvent permettre à des personnes mal intentionnées de propager des virus et autres logiciels malveillants. Heureusement, des services existent aussi pour décrypter les liens raccourcis.

Nous avons sélectionné cinq sites et extensions qui permettent de savoir ce que cache un lien réduit en quelques secondes. Decryptlinks, un service web et une extension Chrome.