background preloader

Algorithmes

Facebook Twitter

Biais de raisonnement et dangers des algorithmes. Aujourd’hui, les algorithmes sont partout. Ce sont des écritures informatiques, des procédures systématisées de résolution de problèmes qui suivent une suite de règles strictement définies par leurs concepteurs·trices. Par exemple, par le biais de la publicité ciblée, ils orientent nos comportements de consommation.

Ils sélectionnent également les informations auxquelles nous sommes exposés sur les réseaux sociaux, et pèsent même sur nombre de décisions économiques et juridiques. De manière générale, lorsque nous souhaitons identifier l’origine d’un mal qui affecte la société (un attentat, une crise économique, un chômage massif…), une question qui vient naturellement à l’esprit est la suivante : « à qui profite le crime ? ». Nous pensons spontanément que remonter le fil de cette interrogation amènera à identifier la cause du fléau contre lequel on souhaite lutter. Les algorithmes ont été appelés « Weapons of Math Destruction » dans l’ouvrage éponyme de Cathy O’Neill. Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème !

Filter bubble is the new Dark web Un billet proposé par Jérémie Poiroux, designer à l’ENS Lyon Rémi Metral est étudiant en journalisme à l’ISCPA Lyon. Il travaille en ce moment sur un mémoire qui traite des effets des algorithmes sur notre accès à l’information et m’a posé quelques questions qu’il intégrera à son travail. Avec son aimable autorisation, je reproduis ici l’interview. Pablo Barbera, chercheur à l’Université de New York, semble avoir mis en échec la théorie de la bulle de filtre (“filter bubble effect”) d’Eli Pariser dans une étude intitulée “How social media reduces mass political polarization” (2014). Il faut comprendre que la théorie de la bulle de filtre est développée par Eli Pariser (2011) pour dénoncer les pratiques de l’économie de l’attention des géants du web tels que Google ou Facebook. Pour vous faire consommer, rien de mieux que de vous proposer ce que vous aimez déjà.

Pablo Barberà ne remet pas en cause la théorie de bulle de filtre. Références Lazarsfeld, P. Comment enquêter sur les algorithmes. C’est pourquoi, petit à petit, les enquêtes journalistiques s'attaquent aux nouvelles problématiques liées à la révolution numérique – et non plus seulement aux champs politique et financier.

Les journalistes d'investigation s'intéressent en effet aux coulisses des différents pouvoirs, enquêtant pendant des mois voire des années pour dévoiler des scandales et demander des comptes aux puissants. Le code de nombreux algorithmes est protégé par le secret des affaires Enquêter sur les algorithmes, c'est aussi s’intéresser à un ingrédient clé de la réussite des nouveaux géants de l'économique mondiale, les fameux GAFA (Google, Amazon, Facebook, Apple. Là aussi, leur pouvoir est très largement opaque. Le code de nombreux algorithmes est protégé par le secret des affaires. De plus, leur fonctionnement très complexe est souvent difficile à appréhender ou à remettre en question pour le grand public. De nombreux chercheurs en informatique travaillent déjà sur les biais possibles des algorithmes. La propagande des algorithmes ? Vraiment. Cet été, Katharine Viner (@kathviner), rédactrice en chef du Guardian a publié un long article sur Comment la technologie bouleverse la vérité (un article que vient de traduire Courrier International, et qui a déjà été largement discuté sur Rue89 ou Big Browser par exemple).

Sommes-nous dans un régime post-vérité ? L’article de Katharine Viner nous explique qu’à l’heure des réseaux sociaux, la vérité ne compte plus. La journaliste prend notamment l’exemple du Brexit détaillant le fait que les arguments de ceux qui ont fait campagne pour la sortie du Royaume-Uni de l’Europe se sont écroulés le lendemain même de l’élection. « Le Brexit a été le premier scrutin d’une nouvelle ère, celle de la politique post-vérité. Les partisans du maintien du Royaume-Uni dans l’UE ont bien – mollement – tenté de démontrer les mensonges du camp adverse en s’appuyant sur des faits, mais ils ont vite découvert que les faits ne pesaient pas lourd dans les débats ». C’est la faute aux réseaux sociaux !