background preloader

Algorithmes

Facebook Twitter

Fake news et accès à l'info : les "bulles de filtres" ne sont pas le plus gros problème ! Filter bubble is the new Dark web Un billet proposé par Jérémie Poiroux, designer à l’ENS Lyon Rémi Metral est étudiant en journalisme à l’ISCPA Lyon. Il travaille en ce moment sur un mémoire qui traite des effets des algorithmes sur notre accès à l’information et m’a posé quelques questions qu’il intégrera à son travail.

Avec son aimable autorisation, je reproduis ici l’interview. Pablo Barbera, chercheur à l’Université de New York, semble avoir mis en échec la théorie de la bulle de filtre (“filter bubble effect”) d’Eli Pariser dans une étude intitulée “How social media reduces mass political polarization” (2014). Il faut comprendre que la théorie de la bulle de filtre est développée par Eli Pariser (2011) pour dénoncer les pratiques de l’économie de l’attention des géants du web tels que Google ou Facebook. Pour vous faire consommer, rien de mieux que de vous proposer ce que vous aimez déjà. Pablo Barberà ne remet pas en cause la théorie de bulle de filtre. Références Lazarsfeld, P. Au-delà du fact-checking, cinq pistes pour renforcer l’éducation aux médias. Quand on parle d’éducation aux médias, on insiste souvent sur la vérification des informations et l’aptitude à détecter des canulars. Or il semble que les établissements scolaires devraient approfondir cette culture médiatique s’ils veulent aider leurs élèves à s’épanouir dans une société démocratique.

Départager faits et fictions est une compétence essentielle à l’engagement citoyen, mais les élèves ne peuvent être de bons « fact-checkers » que s’ils ont une compréhension plus large de la manière dont les informations sont produites et consommées à l’ère numérique. Voici cinq questions qu’il faut leur apprendre à se poser. Qu’arrive-t-il aux médias traditionnels ? Fort heureusement, les « fake news » ne représentent qu’une petite partie des informations que consultent la plupart d’entre nous.

Il est important d’éviter les fake news, mais il est plus important encore de rechercher les bonnes informations, de les lire et de les diffuser. Comment l’information est-elle produite ? Algorithme : mais en fait, qu'est-ce que c'est et à quoi ça sert ? A l’ère du Big Data, du Machine Learning et de l’intelligence artificielle, les algorithmes sont devenus omniprésents dans nos vies. Mais en fait, qu’est-ce qu’un algorithme ? Découvrez la définition du terme, ses cas d’usage et quelques exemples des algo les plus célèbres et massivement utilisés.

Le terme algorithme fut inventé par le mathématicien Mohammed Ibn Musa-Al Khwarizmi, dans le courant du neuvième siècle avant Jésus Christ. Avec l’essor de l’intelligence artificielle, ce terme est de plus en plus utilisé et a rejoint la catégorie des » buzzwords « . Aujourd’hui, on utilise des algorithmes pour trouver l’amour, pour investir dans les meilleures actions, pour prédire le crime, pour organiser les résultats de recherche sur le web et pour des millions d’autres applications.

Les algorithmes sont omniprésents et dirigent notre économie, notre société et peut-être même la façon dont nous pensons. Qu’est-ce qu’un algorithme ? A quoi servent les algorithmes ? Hannah Fry : “Il faut une agence de sûreté des algorithmes” YouTube associe par erreur le 11 septembre 2001 aux images de Notre-Dame en feu. Subscribe to read.

The new digital divide is between people who opt out of algorithms and. Opinion | Think You’re Discreet Online? Think Again. But these tools are worrisome, too. Few people posting photos on Instagram are aware that they may be revealing their mental health status to anyone with the right computational power. Computational inference can also be a tool of social control. The Chinese government, having gathered biometric data on its citizens, is trying to use big data and artificial intelligence to single out “threats” to Communist rule, including the country’s Uighurs, a mostly Muslim ethnic group. [As technology advances, will it continue to blur the lines between public and private? Sign up for Charlie Warzel’s limited-run newsletter to explore what’s at stake and what you can do about it.]

Such tools are already being marketed for use in hiring employees, for detecting shoppers’ moods and predicting criminal behavior. This is worrisome enough when it involves correct inferences. Another troubling example of inference involves your phone number.