background preloader

Le web 2.0 et l’infopollution. sources : Eric Sutter et Alexandre Serres

Le web 2.0 et l’infopollution. sources : Eric Sutter et Alexandre Serres
La publicité devient de plus en plus difficile à discerner pour l’usager non formé qui ne distingue pas toujours les liens publicitaires des résultats lors de requêtes sur les moteurs. La pratique du référencement payant et de la publicité contextuelle ne cesse de s’affirmer si bien que l’internaute est de plus en plus confronté a des publicités ciblées que ce soit à l’intérieur de sa messagerie (Googlemail) ou lors de son surf (les publicités étant ciblées grâce à l’adresse IP) Les sites web 2.0 n’échappent pas aux nouvelles stratégies publicitaires notamment le buzz marketing ou marketing viral qui consiste à diffuser une information publicitaire par le « bouche à oreille » via les plateformes de diffusion de vidéos comme youtube ou dailymotion. La vidéo est généralement comique et est relayée via les mails et les blogs. Face à ces infopollutions croissantes autant par son nombre et que dans leur diversité, quelles formations peut-on mettre en place ? Related:  Lutter contre la désinformation

Les risques de l’infopollution - Site Officiel de Joël de Rosnay L’accélération technologique conduit à une profusion d’informations qui risque de polluer les esprits. Elle s’accompagne aussi de l’émergence d’un “cerveau planétaire”, qui démultiplie les opportunités de connections avec les autres et avec notre propre environnement. Face à ces risques, il convient de savoir “casser sa matrice mentale” et “gérer son capital-temps”. Sacha Goldman : La soif de l’homme de comprendre nous mène vers un trop plein informationnel. Comme s’il y avait une pollution surinformationelle, dans laquelle on a du mal à naviguer et à se retrouver aujourd’hui ? Joël de Rosnay : Je pense que cela va s’accélérer et empirer car il faut bien comprendre la phase d’accélération dans laquelle nous sommes entrés. S. J. de R. : L’approche de la connaissance après Descartes est une approche analytique. S. J. de R. : Avant de parler de ce phénomène de pollution qui nous guette, il faut comprendre où l’on en est dans ce mental collectif. S. S. S. S. S.

Conseils pour identifier les fausses informations | Pages d’aide de Facebook Valider l’info sur Internet : des outils pour éduquer La maîtrise et l’évaluation de l’information sont, selon les termes d’Alexandre Serres, un « enjeu éducatif majeur », « une condition de survie » dans notre société. Heureusement, les ressources ne manquent pas pour relever le défi. Piéger ou éduquer, cette alternative a enflammé la toile. Fin mars, un article intitulé « Comment j’ai pourri le web » paru sur la vie moderne, un site créé par quatre enseignants est repris par Rue 89 dans une rubrique « témoignage » sous le titre « J’ai piégé le Net pour donner une bonne leçon à mes élèves ». Tous les débats, réactions… suscités par cette publication (1) prouvent bien qu’apprendre à évaluer et à valider l’information sur Internet est devenu essentiel. 1) L’article « Troll de prof qui sabote le net pour venger l’école » paru sur le site mediacteur en reprend l’essentiel et propose toutes une série de liens pour qui veut aller plus loin. Des définitions crédit photo: flickr Ressources nationales Un document à étudier Ressources académiques

Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème ! - Mais où va le Web Filter bubble is the new Dark web Un billet proposé par Jérémie Poiroux, designer à l’ENS Lyon Rémi Metral est étudiant en journalisme à l’ISCPA Lyon. Pablo Barbera, chercheur à l’Université de New York, semble avoir mis en échec la théorie de la bulle de filtre (“filter bubble effect”) d’Eli Pariser dans une étude intitulée “How social media reduces mass political polarization” (2014). Il faut comprendre que la théorie de la bulle de filtre est développée par Eli Pariser (2011) pour dénoncer les pratiques de l’économie de l’attention des géants du web tels que Google ou Facebook. Pour vous faire consommer, rien de mieux que de vous proposer ce que vous aimez déjà. Pablo Barberà ne remet pas en cause la théorie de bulle de filtre. Un peu de contexte historique : les théories selon lesquelles nous sommes enfermés dans notre “monde” et notre “bulle” ne sont pas nées avec Internet. Je pense qu’on ne sera pas fixé de sitôt. Le terme de bulle (tout court) est intéressant. Références

Les fake news, miroir grossissant de luttes d’influences Quel que soit l’angle sous lequel on les observe, c’est sur l’énigme du médium[+] NoteLes travaux de Louise Merzeau s’inscrivent dans le courant de pensée de la médiologie . [1] que ces fausses nouvelles conduisent notre regard. Corps conducteur, milieu, organe : comment les idées se propagent-elles, comment leur circulation transforme-t-elle la réalité, comment le pouvoir s’incarne-t-il dans cette puissance de propagation ? Il est utile de rappeler que tout régime de vérité implique un système de falsification en miroir Sans faire l’anamnèse des pratiques de désinformation — dont l’histoire est logiquement aussi longue que celle de l’information elle-même —, il est utile de rappeler que tout régime de vérité implique un système de falsification en miroir, qu’on peut interpréter comme l’expression simultanée de son autorité et de ses dérèglements plus ou moins intentionnels. Nos actuelles fake news ne dérogent pas à la règle.

Contre les fausses informations, Google retouche son moteur de recherche Le géant du Web a annoncé quelques modifications dans le classement des sites et donne la possibilité aux internautes de signaler certains contenus inappropriés. Google a annoncé mardi 25 avril avoir apporté des modifications à son moteur de recherche, notamment dans le but de limiter la visibilité des fausses informations : « Nous avons ajusté nos indicateurs pour faciliter la remontée de pages fiables et dévaloriser les contenus de faible qualité. » L’entreprise ne donne pas de précision sur la façon dont son algorithme a été amélioré – son fonctionnement est un des secrets les mieux gardés de l’entreprise. Cet ajustement devrait avoir un impact sur l’ordre des résultats proposés sur le moteur de recherche, mais aussi sur les condensés d’information qu’il propose parfois directement aux internautes sous forme d’encadré. Les internautes pourront d’ailleurs transmettre à Google des commentaires sur le contenu de cet encadré, à l’aide d’un petit bouton « commentaire » posé à côté.

Lutte contre la désinformation : les algorithmes de Google sont désormais épaulés par des humains - Tech Google a mis à jour son guide d'utilisation destiné aux « quality raters », une armada de plus de 10 000 personnes chargées de vérifier la pertinence des résultats du moteur de recherche. Elles peuvent désormais signaler des contenus « offensants », tels que le négationnisme et la désinformation, pour améliorer la pertinence de ses algorithmes. Face aux critiques récurrentes et aux ratés remarqués de son moteur de recherche, Google a décidé d’en améliorer l’intelligence artificielle pour afficher des résultats plus factuels afin de lutter contre les articles de désinformation. Paul Haahr, l’un des ingénieurs de l’entreprise en charge de cette mission, tient à une différence lexicale : « Nous évitons volontairement le terme de ‘fake news’ parce qu’il est trop imprécis. Évidemment, si un internaute recherche volontairement ce genre de termes avec des mots-clé précis, il trouvera ce qu’il souhaite, notamment en tapant le nom du site qu’il a en tête.

Comment détecter une fake news sur le Web - Capital.fr “Emmanuel Macron avait une oreillette pendant le débat du second tour de la présidentielle.” “Une infirmière a échangé 9.000 bébés dans une maternité.” “Nicolas Dupont-Aignan tente un come-back avec un album de chansons alsaciennes.” Ces affirrmations sont toutes fausses, mais elles ont pourtant toutes été largement diffusées et reprises sur Internet, imitant plus ou moins bien les apparences et les codes de véritables informations. Selon le journaliste Samuel Laurent, responsable des Décodeurs, la rubrique de vérification des faits du journal “Le Monde”, on trouve principalement trois types d’intox : les informations militantes, émanant des mouvances extrêmes ou conspirationnistes par exemple, les informations tirées de sites parodiques, comme Le Gorafi en France, mais prises au sérieux, et les sites qui cherchent à attirer des clics à tout prix, pour récolter de la publicité. >> A lire aussi - Facebook et Google s'arment contre les "fake news" en France Une intox dans l’intox.

Des algorithmes contre les images truquées Chaque événement médiatique engendre aujourd’hui son lot d’images truquées relayant de fausses nouvelles ou « fake news ». Face à ce phénomène que les acteurs du Net tentent de juguler, les chercheurs élaborent de leur côté des algorithmes pour mieux détecter les informations douteuses circulant au moyen des images. Pour juger de la véracité d’une information en l’absence de contexte, autant jouer à pile ou face. Selon une étude de 2006 de la Texas Christian University, nous ne serions en effet pas beaucoup plus efficaces que le hasard pour repérer les tromperies1. Une décennie plus tard, le flot de données auquel nous exposent les réseaux sociaux est devenu si colossal que séparer le bon grain de l’ivraie semble encore plus difficile. « À moins d’être confronté à un montage grossier, un humain ne peut pas détecter une modification ou un réemploi de photo, estime Vincent Claveau. Les chercheurs de l’Irisa ont pu retrouver les deux photos ayant servi au photomontage.

Fake news : Facebook contextualise les liens Malgré les mesures déjà prises, le très populaire réseau social Facebook - parmi d'autres - est la cible d'incessantes critiques pour sa propension à aider à la propagation de fausses informations. Le test d'une nouvelle fonctionnalité a été lancé. Elle promet d'apporter du contexte à des articles apparaissant dans le fil d'actualité. À côté des liens publiés, un bouton va permettre de lancer une fenêtre divulguant des informations supplémentaires au sujet de l'article et de son éditeur, sans quitter pour autant l'antre de Facebook. Ces détails seront glanés à travers Facebook et d'autres sources. Il pourra par exemple s'agir d'une fiche Wikipédia à propos de l'éditeur qui a publié l'article, la possibilité de suivre sa Page, d'autres articles sur le même sujet, la manière dont l'article a été partagé sur Facebook. L'un des derniers impairs en date de Facebook concerne la mise en avant d'articles avec de fausses informations sur l'auteur de la fusillade meurtrière de Las Vegas.

Google et Facebook lancent un « indicateur de confiance » contre les fake news Facebook et Google intègrent désormais un outil de vérification des sources mis au point par un consortium de journalistes. Cet indicateur prend la forme d'une icône indiquant si la source de l'information est réputée fiable. Les efforts du réseau social aux deux milliards d’utilisateurs pour lutter contre la désinformation ne sont pas jugés efficaces par tous les observateurs, y compris les premiers intéressés : les fact-checkers. Mais malgré la persistance de nombreuses fake news sur Facebook, la plateforme enregistre toujours des bénéfices record. Dans la continuité des initiatives engagées depuis un an pour vérifier les informations diffusées sur son site, Facebook vient de déployer un « indicateur de confiance. » L’outil a été mis au point par The Trust Project, un consortium de journalistes qui travaille au développement de standards permettant d’identifier les productions journalistiques fiables. Une icône associée aux articles

Related: