background preloader

Du rôle prédictif des données à la gouvernementalité algorithmique

Du rôle prédictif des données à la gouvernementalité algorithmique
Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données. Réécouter l’émission en ligne, ou parcourez le transcript augmenté de liens. Il y a de multiples formes de données, rappelle en préambule Xavier de la Porte : données sociales, messages, commentaires, celles qu’on publie chez les autres ou que les autres publient sur soi. Xavier de la Porte : Quels sont les modèles prédictifs ? Une autre étude récente a utilisé Twitter pour tenter d’anticiper de deux-trois jours les cours du Down Jones. Erick Alphonse : Oui. Related:  Algorithmes, IA & traitement des données

Un programme de Google aide le Pentagone à analyser les images filmées par les drones L’entreprise a mis à disposition du Pentagone des technologies d’intelligence artificielle permettant d’identifier des éléments dans des vidéos. Google ne l’avait pas annoncé publiquement. Mardi 6 mars, le site américain Gizmodo a révélé l’existence d’un partenariat entre l’entreprise et le Pentagone, destiné à aider ce dernier à analyser des images de drones. Cette démarche s’inscrit dans le projet Maven du ministère américain de la défense, lancé en avril 2017, visant à « intégrer plus efficacement l’intelligence artificielle et l’apprentissage automatique à travers les opérations pour maintenir nos avantages face à des adversaires de plus en plus compétents », précisait alors une note du Pentagone. Identifier des cibles Google est à la pointe en matière d’intelligence artificielle, notamment dans le secteur de l’apprentissage automatique et de la vision par ordinateur. « Garde-fous » Les liens entre Google et l’armée sont délicats.

Vers un monde de données Nous sommes entrés dans un monde de données, dans un monde où les données sont en passe de devenir l’essence même de la connaissance et de l’information. La donnée (data) est la plus petite part d’information accessible, à la manière des zéros et des uns qui constituent les bits d’information à l’heure du numérique. Elle est déterminée par des valeurs, par des champs qui s’appliquent à elle et la qualifie. Avec l’informatisation de notre quotidien, tout devient données. Les données sont le moteur du web sémantique de Tim Berners-Lee (ce web de données ou web 3.0) comme du web² de John Battelle et Tim O’Reilly. C’est le moteur du web implicite, celui qui comprend le moindre de nos clics. Ces données deviennent intelligentes par leur recoupement et leurs capacités à adapter notre environnement au contexte que les machines perçoivent de nous via leurs capteurs. Ces données sont multiples, hétéroclites, hétérogènes, mais elles se relient les unes aux autres. Hubert Guillaud

Big Data, grande illusion La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. La statistique fournit une manière extraordinairement puissante et utile de remettre en questions les suppositions et les inférences que les cerveaux humains produisent naturellement – et souvent de manière erronée. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture.

Big Data : faire du sens à grande échelle » Article » OWNI, Digital Journalism Après l'open-data la nouvelle tendance tout droit venue des US sera-t-elle le « big data » ? D’un récent voyage dans la Silicon Valley (merci aux amis du Orange Institute), je rentre avec une conviction : tout ce que nous connaissions du web va changer à nouveau avec le phénomène des big data. Il pose à nouveau, sur des bases différentes, presque toutes les questions liées à la transformation numérique. En 2008, l’humanité a déversé 480 milliards de Gigabytes sur Internet. En 2010, ce furent 800 milliards de Gygabytes, soit, comme l’a dit un jour Eric Schmidt, plus que la totalité de ce que l’humanité avait écrit, imprimé, gravé, filmé ou enregistré de sa naissance jusqu’en 2003. Ces données ne sont pas toutes des œuvres. Naviguer dans ce nouveau web demande une nouvelle science. Qu’est-ce qui change avec les big data ? L’actualité de la semaine nous a donné une petite illustration de ce qui se passe à grande échelle. On sent bien que l’on est tout près d’un phénomène d’émergence.

« La machine n'a pas la moindre idée de la complexité du langage » Docteur en intelligence artificielle, Gilles Moyse est le fondateur de Récital, une start-up spécialisée dans le traitement automatisé du langage. D'après lui, nous sommes en pleine « bulle de l'IA », et les indéniables progrès réalisés ces dernières années en matière d'intelligence artificielle ne menacent pas tant l'emploi que la souveraineté des États. Usbek&Rica : « Intelligence Artificielle » aura été le mot incontournable de l’année 2017. Comment expliquer cet engouement, et n’en fait-on pas un peu trop autour de l’IA ? Et ensuite, l’intelligence artificielle est entrée dans une longue hibernation, c’est ça ? C’est ça, on parle de « l’hiver de l’IA », qui s’étend grosso modo de la fin des années 1980 au milieu des années 2000. « La vie est bien plus complexe que de simples énoncés de règles » Mais cela ne donnait pas beaucoup de résultats, car les moteurs de règles sont beaucoup trop simplistes pour donner du sens à la complexité. Quels sont ces facteurs ?

Quand nos requêtes aident à tracer les évolutions de la grippe Par Hubert Guillaud le 20/11/08 | 3 commentaires | 4,281 lectures | Impression Google vient de dévoiler un outil expérimental, baptisé Google Flu Trends, capable de tracer l’intensité et l’étendu des fluctuations de la grippe à travers les Etats-Unis, simplement en observant les requêtes sur ce sujet des utilisateurs de son moteur de recherche. Google Flu Trends s’appuie sur un constat simple : avant d’aller chez le docteur, nombre d’internautes ont tendance à chercher des informations sur les symptômes qu’ils ressentent. L’outil de Google se contente d’agréger les données relatives à la grippe tapées par les internautes dans son moteur et à les géolocaliser comme il le propose sur Google Insight, le service d’analyse des requêtes des internautes. D’autres systèmes existent encore comme HealthMap, qui permet de cartographier des informations de santé pour montrer comment se répandent des maladies.

Big Data : est-ce que le déluge de données va rendre la méthode scientifique obsolète Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu qui commence par un retour sur un article fondateur de 2008 qui posait les bases de la révolution à venir. « Il y a soixante ans, les ordinateurs ont rendu l’information lisible. Image : La fin de la théorie scientifique ? Les réactions compilées par les contributeurs experts de la cyberculture de The Edge sont également intéressantes. Hubert Guillaud

Web-mining.fr Digital Labor, Zoomorphisme et Travail réellement humain La semaine dernière, Jean-Michel Salaün a réactivé son blog pour publier un billet intitulé «Digital Labor, plateformes et données» dans lequel il critique la notion de Digital Labor, telle qu’elle apparaît notamment dans les travaux d’Antonio Casilli. Il y conteste que l’on puisse considérer comme le « résultat d’un travail » les traces que nous laissons sur Internet, y compris lorsque cette activité est exploitée économiquement par les grandes plateformes, type GAFAM. Son propos reprend des arguments déjà avancés par certains sociologues du travail, qui reprochent au concept de Digital Labor son imprécision, la trop grande diversité des situations qu’il embrasse et, par là, le risque d’assimiler potentiellement à du travail toute forme d’activité liée au numérique : Jean-Michel Salaün ne se limite cependant pas à la reprise de cette critique « sociologique » du Digital Labor ; il la complète en faisant un détour plus original par les sciences de l’information. WordPress:

Related: