background preloader

Bulle de filtres

Bulle de filtres
Eli Pariser a théorisé le concept de la bulle de filtres. La bulle de filtres[1] ou bulle de filtrage[1] (de l’anglais : filter bubble) est un concept développé par le militant d'Internet Eli Pariser. Selon Pariser, la « bulle de filtres » désigne à la fois le filtrage de l'information qui parvient à l'internaute par différents filtres ; et l'état d'« isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu'il recherche sur Internet résultent d'une personnalisation mise en place à son insu. Selon cette théorie, des algorithmes sélectionnent « discrètement » les contenus visibles par chaque internaute, en s'appuyant sur différentes données collectées sur lui. Chaque internaute accéderait à une version significativement différente du web. Il serait installé dans une « bulle » unique, optimisée pour sa personnalité supposée. Enjeux[modifier | modifier le code] Effets psychosociaux supposés[modifier | modifier le code] Twitter[modifier | modifier le code]

https://fr.wikipedia.org/wiki/Bulle_de_filtres

Related:  Bulles de filtre & personnalisationFacebook - bulles de filtres - algorithmesBulles de filtre/filtrage

Internet, Big Data et personnalisation : incursion dans les entrailles du web – Monkey Business Le Web est aujourd’hui tout puissant et compte plus de 3 milliards d’utilisateurs. Trois milliards de clients potentiels pour les géants du web qui collectent de plus en plus de données sur leurs visiteurs pour leur offrir une expérience de plus en plus personnalisée et performante. Explications.

Voici ceux qui contrôlent votre fil d'actualité Facebook À chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, controversés et incompris au monde se met à en œuvre. Il scanne et collecte tout ce qui a été posté dans la semaine passée par chacun de vos amis, chaque personne que vous suivez, chaque groupe auquel vous appartenez et chaque page Facebook que vous aimez. Pour un utilisateur standard, cela correspond à plus de 1.500 posts. Si vous avez plusieurs centaines d’amis, cela peut monter à 10.000. Ensuite, grâce à une formule jalousement gardée et en constante évolution, l’algorithme de Facebook les classe dans ce qu’il croit être l’ordre précis de l’intérêt que vous allez leur porter.

« Recommandé pour vous » : les algorithmes, ennemis de la découvrabilité ? Par Alexandra Yeh, France Télévisions, Direction de la Prospective Quel est le point commun entre le comté de Berkeley en Caroline du Sud, Hamina en Finlande et Jurong West à Singapour ? Ce sont quelques-uns des nombreux sites qui accueillent les célèbres « data centers » de Google. Un épais mystère entoure ces serveurs dont la firme n’a jamais voulu révéler le nombre exact. Un chiffre est connu en revanche : 130 trillions, ou, si vous préférez, 130 milliards de milliards - c’est le nombre de pages hébergées sur le World Wide Web et répertoriées par ces serveurs. Une somme qui donne le vertige… Pourtant, l’immense majorité de ces contenus est destinée à rester ignorée, perdue dans les méandres de la toile.

Comment éclater la «bulle de filtres» et avoir accès à ceux qui ne pensent pas comme nous sur Internet? Utiliser des «portraits de données» pour éclater la «bulle de filtres»: c’est la méthode que préconise une étude du 19 novembre 2013, réalisée en collaboration par l’université Pompeu Fabra de Barcelone et Yahoo Labs, et résumée dans un article du MIT Technology Review paru le 29 novembre. Concrètement, il s’agit de faire entrer en contact des personnes ayant de fortes divergences de point de vue, à l’heure où Internet tendrait à les éloigner de plus en plus. L’idée que le développement des réseaux sociaux aurait entraîné un rapprochement des gens autour des opinions qu’ils partagent, et surtout un éloignement entre ceux qui n’en partagent pas, a été évoquée par l’activiste Eli Pariser, qui en 2011 a consacré l’expression de «bulle de filtres» (ou filter bubble) pour la désigner –Titiou Lecoq vous en a parlé le 29 novembre sur Slate.fr.

Un algorithme est un éditorialiste comme les autres. Bon je m'étais pourtant promis de ne pas en rajouter une couche sur toute cette histoire de bulle de filtre et de rôle des algorithmes / réseaux sociaux / faillite de la presse dans l'élection de Donald Trump qui, pendant qu'on discute du rôle de Facebook dans son élection et de la manière dont il gère son compte Twitter est en train de nommer tranquillou des suprémacistes comme conseillers stratégiques sans que ni la valeureux Barak ni la non-moins valeureuse Hilary ne s'en émeuvent outre-mesure. Bref. (Source) Je ne voulais plus en parler de cette histoire de bulle de filtre mais que voulez-vous voilà plusieurs jours que ma bulle de filtre ne me renvoie que des articles sur la bulle de filtre prouvant donc ipso facto l'existence d'une bulle de filtre (en tout cas de la mienne). Alors bien sûr, les algorithmes trient l'info (c'est même un peu pour ça qu'ils ont été inventés) et permettent donc d'accéder à certaines infos car comme il y a trop d'infos il faut bien se résoudre à choisir.

Comment enquêter sur les algorithmes ? C’est pourquoi, petit à petit, les enquêtes journalistiques s'attaquent aux nouvelles problématiques liées à la révolution numérique – et non plus seulement aux champs politique et financier. Les journalistes d'investigation s'intéressent en effet aux coulisses des différents pouvoirs, enquêtant pendant des mois voire des années pour dévoiler des scandales et demander des comptes aux puissants. Le code de nombreux algorithmes est protégé par le secret des affaires Enquêter sur les algorithmes, c'est aussi s’intéresser à un ingrédient clé de la réussite des nouveaux géants de l'économique mondiale, les fameux GAFA (Google, Amazon, Facebook, Apple. Là aussi, leur pouvoir est très largement opaque. Le code de nombreux algorithmes est protégé par le secret des affaires.

Lutter contre les enclosures de demain Je suis invité Jeudi prochain à intervenir dans le Master recherche Infocom de l'université Paris Ouest, dédié aux biens communs numériques, pour le 6ème webinaire, sur le thème "Enclosures et émancipation". Cet article va me servir à préciser le cadre de mon intervention, à y jeter quelques idées en vrac, et pourra servir de support de discussion pour les participants au séminaire, en complément de cet autre billet sur le même sujet : "D'un F qui veut dire forclos" et de ceux signalés en lien dans reste du texte. Rappelons ce qu'est d'abord une "enclosure". Les "enclosures informationnelles", c'est ça : "Dans le domaine de l’information, clore revient à poser une frontière artificielle alors que l’ADN du numérique est de permettre le stockage et la dissémination à très bas coûts des biens informationnels qui sont par nature non rivaux, c’est-à-dire accessibles simultanément par plusieurs personnes."

Vous saurez tout sur l’algorithme de Facebook - 6 février 2016 « Chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, les plus controversés et incompris du monde entre en action. » Slate a décidé de s’attaquer à un secret bien gardé chez Facebook : ce processus de classement automatisé qui « façonne le vie sociale et les habitudes de lecture de plus d’un milliard d’utilisateurs quotidien ». Ce même algorithme qui fait les beaux jours de startups comme BuzzFeed et mettent à mal les journaux traditionnels. « L’algorithme du fil d’actualité de Facebook [...] peut nous rendre heureux ou triste ; il peut nous exposer à des idées nouvelles et stimulantes ou nous isoler dans des bulles idéologiques. » Bref, ces algorithmes – qu’on trouve chez d’autres géants du web – sont devenus dans l’imaginaire collectif « des entités mystérieuses et puissantes ». « L’intelligence derrière le logiciel Facebook est fondamentalement humaine »

Pour qui les GAFA vont-ils nous faire voter ? Dans cette journée spéciale : « France, inventaire avant élections » que vous propose France Culture depuis ce matin, nous allons parler de la façon dont nos usages d’internet - et notamment des réseaux sociaux - modifient notre rapport à la politique. A moins que ce ne soient ces mêmes réseaux, et autre moteurs de recherche, qui délibérément, nous conduisent à amender nos opinions, à nous contenter d’évoluer dans un univers de pensée commune, dans des cercles où tout le monde partage, peu ou prou, les mêmes avis. Où la diversité peu à peu s’effrite, le tout, avec notre consentement le plus plein et entier. Pour qui les GAFA, Google Amazon Facebook et Apple, vont-ils nous faire voter ?

Facebook nous isole de plus en plus des opinions différentes des nôtres Si vous lisez cet article, vous pouvez considérer que vous avez de la chance. Surtout si vous faites partie de la large majorité d’internautes qui utilisent les réseaux sociaux afin de s’informer (c’est le cas de 62% des Américains par exemple, selon PewResearch), et ne lit jamais d’articles sans avoir préalablement cliqué sur un post Facebook. Facebook a annoncé cette semaine qu’il allait, une nouvelle fois, modifier l’algorithme qui détermine ce que chaque utilisateur voit apparaître sur sa timeline. « Facebook a été conçu pour connecter les gens avec leurs amis et leur famille avant toute chose, » explique Lars Backstrom, ingénieur en chef chez Facebook. « Notre priorité est de vous garder en contact avec les personnes, les lieux et les choses pour lesquels vous avez un intérêt, et en particulier, avec vos proches. C’est pour cette raison que le fil d’actualités Facebook va changer afin de s’assurer que vous ne manquerez jamais les posts de vos amis les plus proches. »

Les algorithmes de recommandation Nous vous invitons à découvrir le principe de fonctionnement des algorithmes de recommandation, ceux utilisés pas les grandes plateformes de vente du Web qui vous disent ce qu’ont acheté les autres acteurs ou qui vous enferment dans une bulle informationnelle. Nous nous concentrons ici sur les aspects techniques et auront sans doute d’autres occasions de considérer des aspects sociétaux, comme l’importance de la recommandation sur les résultats d’élections. Nous avons demandé à Raphaël Fournier-S’niehotta, spécialiste de ces algorithmes, de nous en dire plus.

affordance.info: La poule de la bulle de filtre et l'oeuf de l'éditorialisation algorithmique Très vieux débat. Le web nait en 1989, Google en 1998 et Facebook est lancé en 2004. Progressivement, les algorithmes ne se contentent plus de rendre accessible et de hiérarchiser le chaos des pages web mais ils guident de plus en plus nos choix. En 2011, Eli Pariser publie son livre "The Filter Bubble: What the Internet Is Hiding from You" et développe sa théorie de la bulle de filtre et de l'enfermement algorithmique. Le débat est lancé. Il ne fera que se complexifier et s'épaissir sans qu'aucune étude scientifique ne parvienne réellement à trancher le noeud gordien suivant : nous faisons des choix, les algorithmes font des choix, les choix que nous faisons se font dans un cadre algorithmique qui modifie ces choix en retour en en favorisant certains et en en minorant d'autres.

Comment les algos nous rendent tous débiles N’avez-vous jamais eu l’impression de tourner en rond sur le Net ? Un peu comme un poisson rouge à qui on aurait filé l’océan et qui ne voudrait pas quitter son bocal. Chaque jour, je me rends sur les mêmes sites, réseaux sociaux, les mêmes apps... bien conscient, pourtant, de l’immensité de la Toile et ses services connexes connectés. Un phénomène encore plus insidieux s’est installé dans mon bocal : je tourne dans le même sens. J’écoute la même musique sur Spotify, je mate des vidéos qui se ressemblent sur YouTube, mon fil d’actu Facebook est une l’antithèse même de la notion de surprise... «Bulles de filtre» C’est l’idée selon laquelle les algorithmes des réseaux sociaux ne nous proposent que des contenus qui nous intéressent déjà. Dans le fil d’actu de Facebook apparaissent donc les publications des amis avec qui on interagit souvent ou des médias qu’on lit régulièrement. L’algorithme calcule ce que l’utilisateur peut voir en fonction de son nombre de likes et de shares, ce qui le conduit à se retrouver comme dans une bulle. Des commentateurs ont donc accusé Facebook de les avoir empêchés de voir à l’avance la victoire de Trump : leur fil d’actu donnait la part belle aux contenus démocrates, en omettant ceux de la base républicaine. Pauline Moullot

Related: