
Voici ceux qui contrôlent votre fil d'actualité Facebook À chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, controversés et incompris au monde se met à en œuvre. Il scanne et collecte tout ce qui a été posté dans la semaine passée par chacun de vos amis, chaque personne que vous suivez, chaque groupe auquel vous appartenez et chaque page Facebook que vous aimez. Pour un utilisateur standard, cela correspond à plus de 1.500 posts. Si vous avez plusieurs centaines d’amis, cela peut monter à 10.000. Ensuite, grâce à une formule jalousement gardée et en constante évolution, l’algorithme de Facebook les classe dans ce qu’il croit être l’ordre précis de l’intérêt que vous allez leur porter. Personne en dehors de Facebook ne sait exactement comment il fait cela et personne à l’intérieur de la société ne vous le dira. Et pourtant, en dépit de cette puissance, le nouvel algorithme de Facebook est étonnamment inélégant, horriblement changeant et définitivement opaque. Redoutables modifications 1. 2. 3. Tournant de 2013
Qui de moi ou de l’algorithme filtre les posts de mes amis Facebook ? L’algorithme de Facebook sélectionne-t-il, pour notre fil d’actualité, des posts qui nous confortent dans ce que nous pensons déjà ? C’est ce que plusieurs chercheurs (ici ou là) dénoncent depuis quelques années. Ils s’inquiètent de la personnalisation du Web et du rôle de filtre des algorithmes qui, en présentant des contenus toujours similaires à ceux que nous aimons déjà, favorisent une homogénéité nuisible à la vie publique. Pour désigner le phénomène, l’activiste américain Eli Pariser a créé le terme de « bulle de filtres » (« filter bubble »), après avoir remarqué que « news feed » affichait de moins en moins d’articles postés par ses contacts conservateurs : « Ce qui se passait, c’est que Facebook observait les liens sur lesquels je cliquais, et avait remarqué que je cliquais plus sur les liens de mes amis libéraux que sur les liens de mes amis conservateurs. Mais une étude, publiée jeudi dans le magazine Science, vient remettre en question cette théorie. Version officielle
Web 2.0, et après ? Notes Jeremy Rifkin, L’âge de l’accès : la nouvelle culture du capitalisme, La Découverte, 2005. Simon Nora et Alain Minc, L’informatisation de la société, La Documentation française, 1978, p. 118. Hervé Le Crosnier, « À l’ère de l’"informatique en nuages" », Le Monde diplomatique, août 2008, p. 19 et sq. Ce texte reprend dans une version courte l’argument de l’article à paraître de D. Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action, New York, Cambridge University Press, 1990. Aniket Kittur, Bongwon Suh, Bryan A. Dennis M.Wilkinson, Bernardo A. S. R. À propos des modalités d’application de cette loi, on peut consulter la recommandation du Forum des droits sur l’Internet sur l’accessibilité des services de communication publique en ligne du secteur public : www. foruminternet. org/ institution/ espace-presse/ communiques-de-presse/ IMG/ pdf/ CP-RecommandationAccesssibilite. pdf M. overcrowded. anoptique. org/ Anoptique.
Comment échapper aux bulles de filtre sur les réseaux sociaux ? Pour contourner les bulles de filtres idéologiques présentes sur les réseaux, le média Accropolis a décidé de les lister et de les analyser. Notamment connues du grand public grâce aux multiples scandales de Facebook, les bulles de filtres sont des filtres d’informations qui se mettent en place à l’insu des internautes au fur et à mesure en fonction de leurs recherches, mais aussi des personnalités ou des médias qu’ils suivent. Très présentes sur Twitter, ces bulles peuvent créer un effet d’isolement idéologique et culturel formant peu à peu des chambres d’écho desquelles il est difficile d’échapper. Pour mieux échapper à ces bulles de filtres, Accropolis, le média politique basé sur Twitch, a lancé une initiative intéressante. Voir l'actu à travers différentes bulles de filtre ? Vous pouvez aussi explorer à votre guise ces différentes bulles en vous rendant sur ce lien.
Un algorithme est un éditorialiste comme les autres. Bon je m'étais pourtant promis de ne pas en rajouter une couche sur toute cette histoire de bulle de filtre et de rôle des algorithmes / réseaux sociaux / faillite de la presse dans l'élection de Donald Trump qui, pendant qu'on discute du rôle de Facebook dans son élection et de la manière dont il gère son compte Twitter est en train de nommer tranquillou des suprémacistes comme conseillers stratégiques sans que ni la valeureux Barak ni la non-moins valeureuse Hilary ne s'en émeuvent outre-mesure. Bref. (Source) Je ne voulais plus en parler de cette histoire de bulle de filtre mais que voulez-vous voilà plusieurs jours que ma bulle de filtre ne me renvoie que des articles sur la bulle de filtre prouvant donc ipso facto l'existence d'une bulle de filtre (en tout cas de la mienne). Alors bien sûr, les algorithmes trient l'info (c'est même un peu pour ça qu'ils ont été inventés) et permettent donc d'accéder à certaines infos car comme il y a trop d'infos il faut bien se résoudre à choisir.
Quand le web nous enferme dans notre bulle Lorsque vous sollicitez votre moteur de recherche préféré sur internet, les résultats affichés ne sont pas forcément les mêmes qu'obtiendraient votre voisin en tapant exactement la même chose. Le web 2.0 se tourne en effet de plus en plus vers une personnalisation poussée dont nous ignorons souvent l'existence. Conséquence : comme votre navigation est taillée sur mesure en fonction de vos goûts, votre lieu de résidence, votre milieu socio-professionnel ou même vos opinions politiques, vous risquez de passer à côté d'offres commerciales, d'informations ou d'articles de presse dont on suppose qu'ils vous intéressent moins. C'est ce qu'on appelle une "bulle de filtre". ARTE Journal a rencontré Yoann Spicher et Mathilde Morineaux, deux chercheurs en sciences de l'information au sein de l'université Paris XVIII.
Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec « seulement » 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir. Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Netflix est la plus grosse plateforme de diffusion de films et séries. Tout à fait. On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Certainement.
"Cercle" Twitter : un outil pour renforcer les bulles informationnelles ... Les bulles font des ravages, elles polarisent les personnes favorisent l’esprit de clan et leur sectarisation. Twitter a décidé d’en remettre une couche avec « Circle ». Cela fait un mois que la fonctionnalité a été lancée en mode test pour certains comptes Twitter. Elle permet de créer un groupe allant jusqu’à 150 comptes pour partager des publications limitées à leur attention. Some Tweets are for everyone & others are just for people you’ve picked.We’re now testing Twitter Circle, which lets you add up to 150 people who can see your Tweets when you want to share with a smaller crowd. Some of you can create your own Twitter Circle beginning today! Sur cette base, à chacun de choisir s’il publie pour le public ou pour son « cercle ». On ne peut créer qu’un cercle par utilisateur, mais sa composition peut évoluer pour chaque message. L’adulation des cercles et de l’appartenance au clan Les cercles peuvent être dangereux, à type de listes de personnes à abattre.
Vous saurez tout sur l’algorithme de Facebook - 6 février 2016 « Chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, les plus controversés et incompris du monde entre en action. » Slate a décidé de s’attaquer à un secret bien gardé chez Facebook : ce processus de classement automatisé qui « façonne le vie sociale et les habitudes de lecture de plus d’un milliard d’utilisateurs quotidien ». Ce même algorithme qui fait les beaux jours de startups comme BuzzFeed et mettent à mal les journaux traditionnels. « L’algorithme du fil d’actualité de Facebook [...] peut nous rendre heureux ou triste ; il peut nous exposer à des idées nouvelles et stimulantes ou nous isoler dans des bulles idéologiques. » Bref, ces algorithmes – qu’on trouve chez d’autres géants du web – sont devenus dans l’imaginaire collectif « des entités mystérieuses et puissantes ». « L’intelligence derrière le logiciel Facebook est fondamentalement humaine » « Il commence, comme le font souvent les ingénieurs, au tableau blanc » Les publications virales
Non, les réseaux sociaux ne nous enferment pas dans une "bulle" Les réseaux sociaux nous confrontent-ils à la diversité des opinions, ou nous enferment-ils dans une bulle d'amis et de gens qui pensent comme nous ? Alors que les travaux récents ont surtout souligné le second phénomène, une étude de Pablo Barberá, doctorant en science politique à l’université de New York montre le contraire. Décryptage avec NiemanLab. Sommes-nous enfermés dans une « bulle de filtres » ? L’idée remise en cause par Pablo Barberá dans son étude est portée par Eli Pariser. Ce tri automatique serait donc synonyme d'isolement : en ne montrant à chacun que des choses qui lui plaisent, les algorithmes confortent ainsi nos opinions. Une hétérogénéité de contacts Bien au contraire, estime Pablo Barberá. Mais alors que dire de cette autre étude dont nous vous faisions l’écho, selon laquelle les réseaux sociaux entretiendraient une autocensure plus forte que dans nos échanges physiques, empêchant les opinions dissonantes d’émerger ?
Concepts et notions SIC et Info documentat...- Carte Mentale r Courant porté (en partie) par Pierre Lévy, philosophe, spécialiste de technologie de l'infocom... à compléter (Antoine Bernier)Définition (issue d'un texte de Cairn.info)Par cyberculture, nous comprenons les relations entre les technologies informationnelles de communication et la culture, émergente à partir de la convergence informatique et télécommunication dans la décennie de 1970. Il s’agit d’une nouvelle relation entre les technologies et la sociabilité, configurant la culture contemporaine (Lemos, 2002). Le principe qui régit la cyberculture est le remix, ensemble de pratiques sociales et communicationnelles de combinaisons, de collages et d’appropriation des morceaux d’informations à partir des technologies numériques.
Les algorithmes nous poussent-ils à écouter toujours le même style de musique ? Quel est l’impact des recommandations algorithmiques sur la diversité de la musique écoutée en streaming ? Grâce à l’ouverture de certaines données par Deezer, les chercheurs du projet Records ont pu dresser un premier tableau nuancé de la question. Les sites de streaming musical donnent accès à des bibliothèques de plusieurs dizaines de millions de chansons. Pour parcourir ces inépuisables catalogues, des algorithmes émettent des suggestions en fonction de ce que l’on a déjà écouté. Mais cela ne risque-t-il pas de nous enfermer dans une bulle un peu trop confortable, avec des chambres d’écho où nous serions sans cesse exposés aux mêmes goûts ? Deezer a fourni à l’équipe les historiques des écoutes, anonymisés, de ses utilisateurs. Le projet Records1 veut combler ce vide en rassemblant des chercheurs, aussi bien issus des sciences sociales que du numérique, autour de données massives fournies par des services de streaming. Coincés dans une bulle de filtre ? Q. Que cherche l'utilisateur ?
Les algorithmes de recommandation Nous vous invitons à découvrir le principe de fonctionnement des algorithmes de recommandation, ceux utilisés pas les grandes plateformes de vente du Web qui vous disent ce qu’ont acheté les autres acteurs ou qui vous enferment dans une bulle informationnelle. Nous nous concentrons ici sur les aspects techniques et auront sans doute d’autres occasions de considérer des aspects sociétaux, comme l’importance de la recommandation sur les résultats d’élections. Nous avons demandé à Raphaël Fournier-S’niehotta, spécialiste de ces algorithmes, de nous en dire plus. Dans les jours qui ont suivi l’annonce des résultats de l’élection présidentielle, le 8 novembre dernier, la polémique a enflé : comment la plupart des sondeurs et des journalistes avaient-ils pu autant sous-estimer le nombre d’électeurs de Donald Trump ? Figure 1 – REUTERS/Mike Segar Un peu d’histoire Un peu de technique Ce principe, à l’origine des premiers systèmes de recommandation, s’appelle le ”filtrage collaboratif”.
Enjeux actuels : les biens communs de la connaissance suite de l’article « Accès aux écrits scientifiques (documentation, automatisation et informatisation) : repères clés » Jusqu’à janvier 2016, un chercheur français pouvait déposer librement ses écrits en « open access », à partir du moment où il n’était pas lié par un contrat avec un éditeur. La Loi sur la République numérique de janvier 2016, l’y autorise désormais, même dans le cas d’un contrat avec un éditeur. Il s’agit d’une exception à l’exclusivité pour l’éditeur, mais uniquement si le chercheur est financé au moins à 50% par des fonds publics. Le projet de Loi stipulait à l’origine que le dépôt des écrits scientifiques des chercheurs financés par fonds publics soit obligatoire, dans l’optique de faciliter l’Accès aux écrits scientifiques publics par le plus grand nombre. Mais cette possibilité est tout de même une avancée car elle autorise le dépôt gratuit d’un article scientifique simultanément à sa publication dans une revue ou un ouvrage scientifique payant.