background preloader

Bulles de filtre/filtrage

Facebook Twitter

Et si Facebook avait fait l'élection américaine ? Qu'y a-t-il de pire en ce bas monde qu'un sondeur américain ? Pas grand-chose, si ce n'est deux sondeurs américains... C'est en tout cas l'impression que l'on a quand on lit les éditoriaux de la presse américaine. La presse, honteuse et coupable de n'avoir pas vu venir le phénomène.

Le jour du vote, le baromètre du New York Times promettait encore 85% de chances de victoire à Hillary Clinton. Pourtant, il existe un outil statistique qui permettait de déceler le ras-de-marée Trump. Une étudiante de l'université de Yale, Erin Pettigrew, a montré comment il était possible d'utiliser les chiffres de Facebook pour voir de quoi discutent les Américains. La mise à disposition de ces chiffres par Facebook n'a évidemment pas grand-chose à voir avec la philantropie scientifique ; elle permet aux annonceurs de mieux cibler les publics auxquels ils s'adressent. Cela amène une deuxième question : comment se forge désormais un choix de vote ? Bulle de filtres. La bulle de filtres[1] ou bulle de filtrage[1] (de l’anglais : filter bubble) est un concept développé par le militant d'Internet Eli Pariser. Selon Pariser, la « bulle de filtres » désigne à la fois le filtrage de l'information qui parvient à l'internaute par différents filtres ; et l'état d'« isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu'il recherche sur Internet résultent d'une personnalisation mise en place à son insu.

Selon cette théorie, des algorithmes sélectionnent « discrètement » les contenus visibles par chaque internaute, en s'appuyant sur différentes données collectées sur lui. Chaque internaute accéderait à une version significativement différente du web. Il serait installé dans une « bulle » unique, optimisée pour sa personnalité supposée. Cette bulle serait in fine construite à la fois par les algorithmes et par les choix de l'internaute (« amis » sur les réseaux sociaux, sources d'informations, etc.). Bulles de filtres. La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. De fausses informations et des « bulles de filtres » Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. Les réseaux sociaux accusés d’être des nids à informations « bidons » USAGES - Recherche d'informations. Et bien non, il n'y a pas qu'un moteur de recherche dans la vie de l'internaute !

Ou du moins, il ne devrait pas... la pluralité des sources passe aussi par la pluralité des modes de recherche. A la différence des annuaires, les moteurs de recherche ont pour spécificité de procéder par une logique par mot clé et non thématique. Ces applications en ligne de type robots (on parle de bots ou encore de crawlers) extrêmement puissants scannent et indexent 24h/24 tout le contenu des pages Web du monde entier afin d'être capables, lors d'une requête, de repérer les ressources (sites, vidéos, images) les plus pertinentes par rapport aux mots clés que l'on a tapés.

Ces robots sont un peu les rois, voire les maîtres de l'information mondiale. Petit tour d'horizon des différents types de moteurs disponibles Les plus connus en France Google, Bing, Voila, Yahoo! Yahoo ! Moteurs / metamoteurs de recherché assurant la protection de la vie privée DuckDuckGo Ix quick Startpage Seeks Et les annuaires ? Isc donnees1217 bdef. Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème !

Filter bubble is the new Dark web Un billet proposé par Jérémie Poiroux, designer à l’ENS Lyon Rémi Metral est étudiant en journalisme à l’ISCPA Lyon. Il travaille en ce moment sur un mémoire qui traite des effets des algorithmes sur notre accès à l’information et m’a posé quelques questions qu’il intégrera à son travail. Avec son aimable autorisation, je reproduis ici l’interview. Pablo Barbera, chercheur à l’Université de New York, semble avoir mis en échec la théorie de la bulle de filtre (“filter bubble effect”) d’Eli Pariser dans une étude intitulée “How social media reduces mass political polarization” (2014).

Il faut comprendre que la théorie de la bulle de filtre est développée par Eli Pariser (2011) pour dénoncer les pratiques de l’économie de l’attention des géants du web tels que Google ou Facebook. Pour vous faire consommer, rien de mieux que de vous proposer ce que vous aimez déjà. Pablo Barberà ne remet pas en cause la théorie de bulle de filtre. Références Lazarsfeld, P. «Bulles de filtre» We and our partners store and/or access information on a device, select basic ads, select personalised ads, measure ad performance, develop and improve products, create a personalised ads profile, create a personalised content profile, select personalised content, measure content performance, apply market research to generate audience insights, select basic ads, create a personalised ads profile, select personalised ads, create a personalised content profile, select personalised content, measure ad performance, measure content performance, apply market research to generate audience insights, develop and improve products.

These technologies may process personal data such as IP address and browsing data for ensure security, prevent fraud, and debug, technically deliver ads or content. They may match and combine offline data sources, link different devices, receive and use automatically-sent device characteristics for identification. Contrôlez vos données. Affordance.info: La poule de la bulle de filtre et l'oeuf de l'éditorialisation algorithmique. Très vieux débat. Le web nait en 1989, Google en 1998 et Facebook est lancé en 2004. Progressivement, les algorithmes ne se contentent plus de rendre accessible et de hiérarchiser le chaos des pages web mais ils guident de plus en plus nos choix. En 2011, Eli Pariser publie son livre "The Filter Bubble: What the Internet Is Hiding from You" et développe sa théorie de la bulle de filtre et de l'enfermement algorithmique. Le débat est lancé. Je ne suis pas un numéro. Avec les logiques de personnalisation toujours plus poussées et plus opaques, avec la prégnance des réseaux sociaux dans notre accès à l'information, sociologues, idéologues, gourous, experts plus ou moins auto-proclamés, universitaires variés et autres spécialistes de l'information s'affrontent, les uns défendant la théorie de Pariser, les autres plaidant pour minorer l'importance du filtrage et des choix algorithmiques.

Je ne suis pas une poule. Des poules, des oeufs, et des chats. La poule et l'oeuf. La poule. Et l'oeuf. Comment enquêter sur les algorithmes ? C’est pourquoi, petit à petit, les enquêtes journalistiques s'attaquent aux nouvelles problématiques liées à la révolution numérique – et non plus seulement aux champs politique et financier. Les journalistes d'investigation s'intéressent en effet aux coulisses des différents pouvoirs, enquêtant pendant des mois voire des années pour dévoiler des scandales et demander des comptes aux puissants. Le code de nombreux algorithmes est protégé par le secret des affaires Enquêter sur les algorithmes, c'est aussi s’intéresser à un ingrédient clé de la réussite des nouveaux géants de l'économique mondiale, les fameux GAFA (Google, Amazon, Facebook, Apple.

Là aussi, leur pouvoir est très largement opaque. Le code de nombreux algorithmes est protégé par le secret des affaires. De plus, leur fonctionnement très complexe est souvent difficile à appréhender ou à remettre en question pour le grand public. De nombreux chercheurs en informatique travaillent déjà sur les biais possibles des algorithmes. Bulle de filtre (+ schémas)

« Recommandé pour vous » : les algorithmes, ennemis de la découvrabilité ? Par Alexandra Yeh, France Télévisions, Direction de la Prospective Quel est le point commun entre le comté de Berkeley en Caroline du Sud, Hamina en Finlande et Jurong West à Singapour ? Ce sont quelques-uns des nombreux sites qui accueillent les célèbres « data centers » de Google. Un épais mystère entoure ces serveurs dont la firme n’a jamais voulu révéler le nombre exact. Un chiffre est connu en revanche : 130 trillions, ou, si vous préférez, 130 milliards de milliards - c’est le nombre de pages hébergées sur le World Wide Web et répertoriées par ces serveurs. Résultat : nous nous bousculons tous sur les mêmes sites, les mêmes plateformes, les mêmes contenus. Cette problématique, c’est celle de la « découvrabilité », un néologisme bien connu au Canada où les médias ont depuis longtemps saisi qu’elle était certainement le nouveau challenge des éditeurs.

De la communication de masse aux médias de précision : petite histoire de la surabondance Quand la techno hacke notre esprit. Pour qui les GAFA vont-ils nous faire voter ? Dans cette journée spéciale : « France, inventaire avant élections » que vous propose France Culture depuis ce matin, nous allons parler de la façon dont nos usages d’internet - et notamment des réseaux sociaux - modifient notre rapport à la politique. A moins que ce ne soient ces mêmes réseaux, et autre moteurs de recherche, qui délibérément, nous conduisent à amender nos opinions, à nous contenter d’évoluer dans un univers de pensée commune, dans des cercles où tout le monde partage, peu ou prou, les mêmes avis.

Où la diversité peu à peu s’effrite, le tout, avec notre consentement le plus plein et entier. Pour qui les GAFA, Google Amazon Facebook et Apple, vont-ils nous faire voter ? C’est le problème que nous allons tenter de résoudre dans l’heure qui vient. Commençons à traiter le sujet du jour en vous disant que vous pouvez, comme chaque jour, suivre cette émission via Twitter. Eh bien politiquement, c’est la même chose. . Les références musicales : Comment les algorithmes nous enferment. S01E06 : Le journal du moi - DoNotTrack.

Arte Journal : Do not track - Le web et la bulle de filtres.