background preloader

Algorithmes

Facebook Twitter

Algocratie : L'inégalité programmée - #DATAGUEULE 84. Guillaume et les algorithmes. Algorithmes : contrôle des biais S.V.P. Pourquoi peuvent-il discriminer ?

Algorithmes : contrôle des biais S.V.P.

Dans certains cas, ces biais peuvent entraîner des discriminations. C’est-à-dire que l’algorithme aboutit à des propositions différentes selon, entre autres, que la personne soit d’un genre ou d’une origine ethnique spécifique. Prenons un algorithme de recrutement dont l’objectif est d’identifier les meilleurs profils pour un métier donné. Une façon de procéder est de regarder, aujourd’hui, quelles sont les caractéristiques des personnes qui exercent ce métier.

Si ce métier est fait à 90 % par des hommes, l’algorithme pourrait conclure que le critère "femme" n’est pas approprié pour ce métier. Biais de raisonnement et dangers des algorithmes. Aujourd’hui, les algorithmes sont partout.

Biais de raisonnement et dangers des algorithmes

Ce sont des écritures informatiques, des procédures systématisées de résolution de problèmes qui suivent une suite de règles strictement définies par leurs concepteurs·trices. Par exemple, par le biais de la publicité ciblée, ils orientent nos comportements de consommation. Ils sélectionnent également les informations auxquelles nous sommes exposés sur les réseaux sociaux, et pèsent même sur nombre de décisions économiques et juridiques. De manière générale, lorsque nous souhaitons identifier l’origine d’un mal qui affecte la société (un attentat, une crise économique, un chômage massif…), une question qui vient naturellement à l’esprit est la suivante : « à qui profite le crime ? ». Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème !

Filter bubble is the new Dark web Un billet proposé par Jérémie Poiroux, designer à l’ENS Lyon Rémi Metral est étudiant en journalisme à l’ISCPA Lyon.

Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème !

Il travaille en ce moment sur un mémoire qui traite des effets des algorithmes sur notre accès à l’information et m’a posé quelques questions qu’il intégrera à son travail. Avec son aimable autorisation, je reproduis ici l’interview. Pablo Barbera, chercheur à l’Université de New York, semble avoir mis en échec la théorie de la bulle de filtre (“filter bubble effect”) d’Eli Pariser dans une étude intitulée “How social media reduces mass political polarization” (2014). Il faut comprendre que la théorie de la bulle de filtre est développée par Eli Pariser (2011) pour dénoncer les pratiques de l’économie de l’attention des géants du web tels que Google ou Facebook.

Pour vous faire consommer, rien de mieux que de vous proposer ce que vous aimez déjà. Pablo Barberà ne remet pas en cause la théorie de bulle de filtre. Références Lazarsfeld, P. Comment enquêter sur les algorithmes. C’est pourquoi, petit à petit, les enquêtes journalistiques s'attaquent aux nouvelles problématiques liées à la révolution numérique – et non plus seulement aux champs politique et financier.

Comment enquêter sur les algorithmes

Les journalistes d'investigation s'intéressent en effet aux coulisses des différents pouvoirs, enquêtant pendant des mois voire des années pour dévoiler des scandales et demander des comptes aux puissants. Le code de nombreux algorithmes est protégé par le secret des affaires Enquêter sur les algorithmes, c'est aussi s’intéresser à un ingrédient clé de la réussite des nouveaux géants de l'économique mondiale, les fameux GAFA (Google, Amazon, Facebook, Apple. Là aussi, leur pouvoir est très largement opaque.

Le code de nombreux algorithmes est protégé par le secret des affaires. De plus, leur fonctionnement très complexe est souvent difficile à appréhender ou à remettre en question pour le grand public. De nombreux chercheurs en informatique travaillent déjà sur les biais possibles des algorithmes. La propagande des algorithmes ? Vraiment. Cet été, Katharine Viner (@kathviner), rédactrice en chef du Guardian a publié un long article sur Comment la technologie bouleverse la vérité (un article que vient de traduire Courrier International, et qui a déjà été largement discuté sur Rue89 ou Big Browser par exemple).

La propagande des algorithmes ? Vraiment

Sommes-nous dans un régime post-vérité ? L’article de Katharine Viner nous explique qu’à l’heure des réseaux sociaux, la vérité ne compte plus. La journaliste prend notamment l’exemple du Brexit détaillant le fait que les arguments de ceux qui ont fait campagne pour la sortie du Royaume-Uni de l’Europe se sont écroulés le lendemain même de l’élection. « Le Brexit a été le premier scrutin d’une nouvelle ère, celle de la politique post-vérité.

Les partisans du maintien du Royaume-Uni dans l’UE ont bien – mollement – tenté de démontrer les mensonges du camp adverse en s’appuyant sur des faits, mais ils ont vite découvert que les faits ne pesaient pas lourd dans les débats ». C’est la faute aux réseaux sociaux ! La semaine des médias 2018 - Les bulles informationnelles - Vidéo.