background preloader

Big Data : nouvelle étape de l’informatisation du monde

Big Data : nouvelle étape de l’informatisation du monde
Viktor Mayer-Schönberger, professeur à l’Oxford internet Institute, et Kenneth Cukier, responsable des données pour The Economist ont récemment publié Big Data : une révolution qui va transformer notre façon de vivre, de travailler et penser (le site dédié). Ce livre est intéressant à plus d’un titre, mais avant tout pour ce qu’il nous apprend du changement du monde en cours. Riche d’exemples, facilement accessibles, il dresse un état compréhensible des enjeux des Big Data en insistant notamment sur ce que cette nouvelle étape de l’informatisation transforme. Le code n’est plus la loi ! « Les systèmes informatiques fondent leurs décisions sur des règles qu’ils ont été explicitement programmés à suivre. Pour les auteurs, les Big Data créent une intelligence artificielle qu’aucun humain ne peut comprendre. « Les Big Data fonctionnent à une échelle qui dépasse notre compréhension ordinaire. Qu’importe la causalité, voici venu le temps des corrélations Hubert Guillaud

Pourquoi il faut s'intéresser à l'open data (même si ça vous paraît compliqué) Partager Les tableaux Excel pourront-ils aider François Hollande à faire remonter sa cote de popularité ? Vendredi 25 avril, le président de la République accueille des patrons venus parler de "données publiques" et de "modernisation de l'Etat". C'est peu dire que l'open data, qui consiste pour un Etat à mettre à disposition sur internet les données que ses administrations utilisent ou produisent de façon gratuite, traîne une réputation austère. Parce que les données permettent plus de transparence L'une des premières raisons d'être de l'open data est de rendre plus transparent le fonctionnement de l'administration. Des démarches similaires ont été initiées à l'échelon national. Petit problème, alors que 55 % des Français jugeaient en avril 2013 que la plupart des responsables politiques étaient corrompus, ces démarches de transparence ne reposent que sur le volontariat. La situation pourrait toutefois évoluer. Parce que les données peuvent vous faciliter la vie

Datahero, ou la dataviz pour les nuls Pas besoin d’être designer, statisticien et un gourou d’excel pour pouvoir générer des dataviz qui ont du sens et qui parlent. C’est le défi soulevé par Datahero, nouveau service de visualisation de données en ligne, actuellement en beta mais dont l’ouverture publique est imminente. Contrairement à des services et applications comme Tableau, Many Eyes, etc. Datahero accompagne l’utilisateur d’une manière beaucoup plus fluide et simple. A l’import, le service propose une connexion avec les principaux services de stockage en ligne comme Dropbox, Box et Drive. Il est possible aussi d’importer son propre set de données à partir d’un fichier CSV (limité à 2Mo dans la version gratuite). Datahero va pouvoir ensuite et de manière intuitive, déterminer la nature des données importées (dates, texte, valeurs numériques, etc) et proposer sur cette base un ensemble de graphique générés de manière automatique. Articles similaires:

Open data : libérons toutes les données publiques, et dans de bonnes conditions de réutilisabilité ! En fin de semaine dernière, la mission Etalab, en charge de l’ouverture des données publiques sous la direction d'Henri Verdier, et le Conseil National du Numérique, présidé par Benoît Thieulin, ont organisé durant deux jours une première « Conférence de Paris sur l’open data et le gouvernement ouvert ». Dans son discours de clôture, Axelle Lemaire, la nouvelle secrétaire d’État chargée du Numérique, a pris une position très forte en position de l’ouverture des données publiques. Amplification de l’ouverture des données publiques En effet, selon la jeune femme, l’open data est désormais « un mouvement d’ampleur mondiale, radical sinon révolutionnaire », et « l’information, la donnée n’est plus considérée comme un pouvoir à conserver jalousement mais bien comme une ressource à partager, un bien commun, un vecteur aussi de création de richesses citoyennes, sociales et économiques ». Les données publiques seront désormais ouvertes par défaut @PierreCol

L’open data renforce-t-il le risque de désintermédiation Mercredi dernier, j’ai emmené mon fils au cinéma. Pour préparer notre sortie j’ai recherché les horaires de cinéma. Google m’a proposé – avant les résultats des sites web correspondant à ma requête – la liste des films projetés actuellement dans ma ville, et un simple clic m’a permis de voir les prochaines séances. Les horaires des films à Rennes (Google) A aucun moment je n’ai quitté la page du moteur de recherche, j’ai obtenu l’information recherchée sans consulter ni le site du cinéma, ni les multiples intermédiaires tels qu’Allociné ou Cinéfil.com. En tant qu’utilisateur, j’ai trouvé le service plutôt pratique (et en tant que père j’ai passé un bon moment avec mon fils). Cela s’appelle de la désintermédiation, ou plutôt une nouvelle intermédiation par un nouvel acteur. Dit autrement : est-on en train de faire entrer le loup dans la bergerie ? 1 – Le risque de désintermédiation cela concerne tout le monde (faites-vous dépister !) 4 – Où est le problème ? J'aime : J'aime chargement…

Pourquoi la Big data devient un très gros business Vous êtes agacé par ces pubs et ces promos qui vous poursuivent sur le web dès que vous avez consulté un site marchand ? Les commerçants en ligne qui vous souhaitent votre anniversaire par e-mail ou SMS vous irritent ? Vous n'avez encore rien vu ! Grâce au traitement de "données massives" rendu possible par des logiciels et des ordinateurs surpuissants, vous serez bientôt repéré, observé, ciblé, "profilé" dans tous les compartiments de votre existence. Pour le meilleur ou pour le pire, vous deviendrez un "nuage" de données, sans cesse passé à la moulinette des algorithmes d'extraction (data mining). 50 milliards d'objets connectés La ruée sur les données est lancée. Les machines parlent aux machines. Les données, une mine d'or L'ère du "big data" s'est ouverte grâce à la conjonction des trois "v" : volume, vitesse et variété des données (statistiques, textes, photos, sons, vidéos...). Avant, on récoltait les données, et on s'en servait pour un objectif prédéfini.

Annotez images et captures d'écran, gratuitement Szoter est un produit gratuit développé par mateusz@malczak.info; c'est à la fois une application en ligne et un logiciel (version Adobe Air) servant à annoter des images stockées sur votre ordinateur. Vous pouvez également utiliser Szoter pour capturer et annoter des screenshots. Dans l'une ou l'autre configuration, vous avez la possibilité de télécharger des images, dessiner sur celles-ci (esquisses, formes géométriques, lignes) et d'ajouter du texte. Lorsque vous avez terminé le travail d'annotation, vous pouvez alors enregistrer les images enrichies sur votre disque dur local ou les partager en ligne via vos réseaux sociaux préférés. La vidéo ci-dessous donne un aperçu des fonctionnalités de Szoter : Szoter.com screencast from szoter on Vimeo Szoter est donc un outil assez polyvalent que l'on pourra utiliser en ligne ou hors ligne, ce qui constitue un atout assez rare dans la collection pléthorique de solutions de capture d'écran. Sources Szoter. Testé sous Windows 7

Les bases de données steampunk des SHS | EPROTO Vous avez sans doute croisé pas mal de gens qui ont fait une base de données pour leur thèse. Vous avez sans doute travaillé au sein d’un labo alimentant une base de données sous Access ou FileMaker Pro. Avez-vous recroisé ces données ? En lisant une thèse ayant nécessité la création de base de données spécifique, avez-vous eu accès à ladite base pour vérifier les résultats obtenus ? Avez-vous accès aux bases montées par la plupart des labos pour leur travail ? C’est souvent difficile : on a perdu les fichiers, on ne sait plus comment c’était fait, machin a mis la main dessus et refuse l’accès aux autres. Bien sûr certaines personnes finissent par donner accès à leur base via le web. Peut-on récupérer les données des bases publiées sur sa machine pour pouvoir les reprendre ? Vous pouvez faire une base de données, c’est bien, mais pas suffisant. Imaginons qu’une équipe, appelons-la « équipe A », travaille sur « les courses poursuites en automobile dans Tintin ». Imprimer ce billet

Faire de l’archiviste le maillon fort de l’open data Simon Chignard a publié hier, sur son blog donneesouvertes.info, un billet très intéressant. Il s’y interroge sur la nature des données mises à disposition par les administrations sur les différents portails open data. Il constate notamment, pour résumer, un problème dans la qualité des jeux de données. D’un autre côté, il souligne le fait que de nombreux réutilisateurs ont besoin de données brutes. Il termine en s’interrogeant sur la responsabilité de l’administration dans l’amélioration de la qualité des données mises à dispositions. Ces constats et ces interrogations ont résonné de façon particulière chez l’archiviste que je suis. Tout d’abord sur la contextualisation. Si cela est probablement un constat récent dans le monde des réutilisateurs, cela l’est moins pour un archiviste. L’archiviste le sait. Cela m’amène directement au second point. Qui, de tout temps, a été chargé de faire l’interface entre les services producteurs et le public ?

Open data santé : l’Assemblée nationale se saisit du sujet « Ouverture et utilisation des données publiques de santé », tel est le titre de la table ronde organisée le 23 avril prochain à l’Assemblée nationale à laquelle le député de la Nièvre Christian Paul a convié récemment une petite dizaine de personnalités. « Plusieurs initiatives récentes, des prises de positions venues de nombreux horizons ont interpellé justement les pouvoirs publics », indique le député. Rappelons par ailleurs qu’un sondage publié le 9 avril et réalisé par Deloitte et Harris Interactive auprès d’un échantillon représentatif de 2000 personnes indique que 78 % d’entre elles sont favorables « au partage de données informatiques de santé ». Dans le cadre de sa fonction de rapporteur du budget de l’Assurance maladie, Christian Paul souhaite que l’Assemblée nationale aborde cette question « sans retard ».

Tarir le flux et vérouiller le code. Web is Dead. Avec quelques autres, et au risque de passer pour une nouvelle Cassandre, j'attire régulièrement l'attention (enfin j'essaie) sur les risques que le web ne devienne qu'un système mass-médiatique parmi d'autres, soumis aux mêmes logiques de rente, aux mêmes stratégies marketing, aux mêmes enfermements idéologiques (dernier en date "Le web : promesse tenue ?"). Or voici que deux nouvelles viennent une nouvelle fois confirmer, sinon que le web est mort (Web is Dead), à tout le moins qu'il présente quelques signes d'agonie passablement inquiétants. Venons-en aux faits. Tarir le flux. La valeur d'une économie de l'abondance doit d'abord être mesurée à l'aune de la capacité de quelques acteurs d'en tarir subitement le flux. Google vient d'annoncer la fermeture prochaine d'un certain nombre de services, parmi lesquels GReader (le 1er Juillet 2013), son lecteur / aggrégateur de flux RSS. Faut-il revenir sur les raisons qui poussent Google à abandonner GReader ? Verrouiller le code. Web is Dead.

Métadonnées - des écosystèmes par domaines Les vocabulaires (schémas de métadonnées) par domaines ou disciplines constituent un de mes sujets de prédilection. Cela fait de nombreuses années déjà que j'attire l'attention de la profession "infodoc" dans son ensemble sur le déploiement de ces outils de représentation des connaissances et la nécessité, si ce n'est de maîtriser, a minima d'avoir une bonne connaissance et compréhension dans son domaine de spécialité, de ces vocabulaires ... de spécialités. Cela devient même des ressources à répertorier ! Pour sensibiliser et donner des pistes, j'avais ainsi initié en 2006 un répertoire des vocabulaires normalisés (pdf). Aujourd'hui il existe de très (trop?) Arrivent (enfin) des présentations de ces vocabulaires par domaines, par écosystèmes comme j'aime à les présenter. La récente rubrique(*) "Disciplinary Metadata" de Digital Curation Centre (**) témoigne de cette ouverture. A suivre donc,.... Quelques sources locales

5 services pour connaître l'adresse derrière un lien raccourci Ils font désormais partie de notre quotidien sur Internet, notamment sur Twitter : les liens raccourcis permettent en effet de réduire considérablement la taille d’un tweet contenant une adresse. Il existe aujourd’hui de nombreux services web pour raccourcir une URL : Bitly, Goo.gl, Bzh.me… Ces sites proposent en général des options pour personnaliser les liens raccourcis et obtenir des statistiques. Les adresses réduites peuvent toutefois poser certains problèmes, car la page de destination n’est pas connue avant de cliquer sur le lien. Ainsi, les services qui proposent la réduction d’adresses peuvent permettre à des personnes mal intentionnées de propager des virus et autres logiciels malveillants. Heureusement, des services existent aussi pour décrypter les liens raccourcis. Decryptlinks, un service web et une extension Chrome Avec près de 50 000 liens décryptés, Decryptlinks est une référence. KnowURL, pour naviguer en toute sécurité Unshorten.it, un service simple et efficace

Related: