background preloader

Rouvroy

Facebook Twitter

C’est une trajectoire assez particulière : recherche d’objectivité et de sécurité qui se traduit par une recherche, je ne dirais pas d'éradication de l'incertitude, mais de neutralisation de ceux des effets de l’incertitude radicale qui sont suspensifs des flux.


Des flux de quoi ? De données, de personnes, de capitaux. De cette manière, on peut montrer, je pense, qu’il existe une complicité assez étroite entre ce que j’appelle la gouvernementalité algorithmique et le capitalisme avancé, alors même que la gouvernementalité algorithmique ne produit pas nécessairement les mêmes effets de disciplinarisation sur les personnes que ceux que produirait le néolibéralisme. Contre l'hypothèse de la « fin de la vie privée » 1La question de savoir si nos sociétés connaissent une érosion progressive de la vie privée est au cœur des conflits politiques et des débats intellectuels des dernières années.

Contre l'hypothèse de la « fin de la vie privée »

Face à l’essor de l’informatique ubiquitaire et des big data, des grandes plateformes du Web social et des dispositifs mobiles, l’opinion publique oscille entre postures apocalyptiques et enthousiasmes parfois calculés à l’annonce de la « fin de la vie privée » [Arthur 2012]. Quoique largement hypothétique, ce processus ouvre la voie à des abus tout autant de la part d'entreprises privées que des pouvoirs étatiques. Google est devenu raciste parce que ses utilisateurs le sont. Vers une « data-sociologie » ? Ces vingt dernières années ont vu le développement de techniques et d’outils informatiques qui permettent d’automatiser la collecte et la mise en forme de données, en particulier celles provenant d’internet[1].

Vers une « data-sociologie » ?

Plus puissantes et plus faciles d’accès, ils sont aussi de plus en plus utilisés dans de nombreuses professions. Leur diffusion intéresse donc les chercheurs en sciences sociales, à la fois parce qu’elles permettent de collecter rapidement des informations sur divers aspects du monde social, mais aussi parce qu’elle conteste un peu plus leur monopole dans la production de données quantitatives. On se propose ici de réaliser un rapide tour d’horizon sur cette question qui souligne le potentiel, et évoque certains enjeux, du recours croissant à ces méthodes pour nos disciplines.

Pour prendre un exemple concret, on peut vouloir chercher à déterminer les prix de l’immobilier dans une zone donnée. Dans plusieurs pays, le data mining connaît un renouveau. Les mirages numériques de la politique 2.0. Le code fait loi. Obama on AI, Autonomous Cars, and the Future of Humanity. IT’S HARD TO think of a single technology that will shape our world more in the next 50 years than artificial intelligence.

Obama on AI, Autonomous Cars, and the Future of Humanity

As machine learning enables our computers to teach themselves, a wealth of breakthroughs emerge, ranging from medical diagnostics to cars that drive themselves. A whole lot of worry emerges as well. Who controls this technology? Will it take over our jobs? Is it dangerous? Scott Dadich: Thank you both for being here. Barack Obama: Busy.

Dadich: I want to center our conversation on artificial intelligence, which has gone from science fiction to a reality that’s changing our lives. Medium, and The Reason You Can’t Stand the News Anymore. In January, Medium founder Ev Williams announced that despite his company’s efforts to better the news industry, it would refocus.

Medium, and The Reason You Can’t Stand the News Anymore.

The reason? We believe there are millions of thinking people who want to deepen their understanding of the world and are dissatisfied with what they get from traditional news and their social feeds. We believe that a better system — one that serves people — is possible. In fact, it’s imperative. We are shifting our resources and attention to defining a new model for writers and creators to be rewarded, based on the value they’re creating for people. At its inception, Medium likely thought what many well-intentioned startups and news outlets do. Many have walked this path and many have failed. Un algorithme est un éditorialiste comme les autres.

La propagande des algorithmes ? Vraiment. Cet été, Katharine Viner (@kathviner), rédactrice en chef du Guardian a publié un long article sur Comment la technologie bouleverse la vérité (un article que vient de traduire Courrier International, et qui a déjà été largement discuté sur Rue89 ou Big Browser par exemple).

La propagande des algorithmes ? Vraiment

Sommes-nous dans un régime post-vérité ? L’article de Katharine Viner nous explique qu’à l’heure des réseaux sociaux, la vérité ne compte plus. La journaliste prend notamment l’exemple du Brexit détaillant le fait que les arguments de ceux qui ont fait campagne pour la sortie du Royaume-Uni de l’Europe se sont écroulés le lendemain même de l’élection. « Le Brexit a été le premier scrutin d’une nouvelle ère, celle de la politique post-vérité.

Les médias dans l’ère « de la politique post-vérité » La rédactrice en chef du « Guardian » revient sur la campagne du « Brexit », où dire la vérité était devenu un handicap et les médias étaient noyés dans le bruit des réseaux sociaux.

Les médias dans l’ère « de la politique post-vérité »

LE MONDE | • Mis à jour le | Par Luc Vinogradoff « Est-ce que la vérité compte encore ? » Katharine Viner, rédactrice en chef du Guardian, a longuement pensé à cette question, et à celles qui en découlent, pendant les semaines qui ont suivi le vote sur le « Brexit », la débâcle de la classe politique britannique et le rôle qu’ont eu les médias dans la diffusion et le décryptage d’informations pendant la campagne.

How technology disrupted the truth by Katharine Viner. Exposure to ideologically diverse news and opinion on Facebook. Qu’est-ce qu’un délire ?

Kim Phuc

Sur Facebook, les militant·e·s antiracistes victimes de censure. Morozov – All Watched Over by Algorithms. Digital Studies 1. Intervention d'Antoinette Rouvroy. Un monde de données. Avec la diffusion des objets connectés, le débat autour du Big Data s’intensifie.

Un monde de données

On connaît déjà son issue. Face aux partisans de «l’homme augmenté», les protestations morales contre la quantification de l’humain (quantified self) n’ont aucune chance d’être entendues. Trop d’intérêts économiques sont en jeu, mais aussi trop de désirs de déléguer à des machines le soin de se connaître soi-même. Le régime de vérité numérique. 1 Nous adressons nos remerciements aux deux intervenants Bernard Stiegler et Antoinette Rouvroy, ain (...) 2 Association internationale pour une politique industrielle des technologies de l’esprit. 1Le texte présenté ici est issu d’une séance du séminaire « Digital Studies » qui s’est tenue le 7 octobre 2014 au Centre Georges-Pompidou1.

Le régime de vérité numérique

Ce séminaire, sous la direction de Bernard Stiegler, philosophe, président du groupe de réflexion « Ars Industrialis2 » et directeur de l’Institut de recherche et d’innovation, interroge l’influence des technologies numériques sur le savoir d’un point de vue épistémologique et les manières dont elles affectent les différentes disciplines académiques. 2L’enjeu est d’ouvrir un débat sur le statut de ces technologies dans les sociétés présentes et à venir et de faire émerger sur cette base un collectif international d’échanges et de contributions autour des études numériques. 7Des flux de quoi ? Comportementalisme numérique : la santé de l’homme sans intérieur. Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance.

Résumé.

Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance.

Le gouvernement algorithmique est un mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s'adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu'en s’appuyant sur leurs capacités d'entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » - qu’on l’appelle « personnalisation » ou « métabolisme de sécurité » - est donc un mode de gouvernement inédit.

Le type de « savoir » qui le nourrit et qu’il façonne, les modalités suivant lesquelles il affecte effectivement les conduites individuelles et collectives, les modes d’individuation qui peuvent l’infléchir ou lui résister méritent d’être très soigneusement étudiés.

How Anything Can Be Predicted