background preloader

Données et algorithmes

Facebook Twitter

Weapons of Math Destruction. Weapons of Math Destruction is a 2016 American book about the societal impact of algorithms, written by Cathy O'Neil.

Weapons of Math Destruction

It explores how some big data algorithms are increasingly used in ways that reinforce preexisting inequality. It was longlisted for the 2016 National Book Award for Nonfiction,[1][2][3] has been widely reviewed,[4] and won the Euler Book Prize. Overview[edit] O'Neil, a mathematician, analyses how the use of big data and algorithms in a variety of fields, including insurance, advertising, education, and policing, can lead to decisions that harm the poor, reinforce racism, and amplify inequality.

Algorithms of Oppression. 2018 book by Safiya Umoja Noble.

Algorithms of Oppression

Une vidéosurveillance peut en cacher une autre. Ce serait enfoncer une porte ouverte que de dire que la vidéosurveillance est partout.

Une vidéosurveillance peut en cacher une autre

Alors que la Cour des comptes critique l’absence totale d’efficacité de ces dispositifs, celle-ci est sans cesse promue comme une solution magique à des problèmes que l’on ne veut pas regarder en face. Pourtant, derrière l’effrayante banalité de la vidéosurveillance peut se cacher l’effarante illégalité de la vidéosurveillance automatisée, ou algorithmique. C’est l’histoire d’une banale histoire de vidéosurveillance L’AN2V, le lobby de la vidéosurveillance, faisait la promotion, dans l’édition 2020 de son guide annuel, de la vidéosurveillance automatisée (VSA). Lois souples vs algorithmes rigides. La société de la prédiction en ses limites. La société des boîtes noires s’étend. Une pandémie de données ne soigne pas de la vérité. Le géographe américain Taylor Shelton (@kyjts) a publié dans l’excellente revue en libre accès Big Data & Society (@BigDataSoc, blog), une intéressante analyse sur les limites des politiques conduites par les données.

Une pandémie de données ne soigne pas de la vérité

Chaque jour, depuis mars, nous sommes sous le joug de décomptes d’infections et de décès dus au coronavirus. D’innombrables tableaux et visualisations de données nous sont proposés pour comprendre et contrer la pandémie. Tant et si bien que certains parlent de la première « pandémie conduite par les données » (data-driven pandemic). Pourtant, alors que les données sont générées, analysées et consommées à une vitesse vertigineuse, notre emprise collective sur le virus est loin d’être parfaite.

Pour Shelton, c’est une erreur de considérer que la centralité des données s’opposerait à la post-vérité. « Ces deux dynamiques ostensiblement opposées sont fondamentalement entrelacées et coproduites ». Cultural Analytics. Sciences des données. Algorithmes et informatique quantiques. F**k the algorithm : le désarroi de la Gen Z face à Parcoursup - L'ADN. Les systèmes d’affectation dans l’enseignement supérieur comme Parcoursup, dont le calendrier 2020-2021 a été dévoilé fin septembre, donnent à une partie de la jeunesse le sentiment déroutant de voir son destin confié à un algorithme. « Fuck the algorithm, fuck the algorithm », scandaient quelques centaines de jeunes Britanniques le 16 août 2020 devant le ministère de l’Éducation à Londres.

F**k the algorithm : le désarroi de la Gen Z face à Parcoursup - L'ADN

Les raisons de leur colère ? Le gouvernement a décidé que la note qui détermine l’entrée à l’université des 300 000 candidats au A-Level (équivalent du bac en France) serait calculée par... un algorithme prédictif. Il était censé tenir compte de plusieurs critères objectifs : les résultats individuels de chaque élève, ceux de son lycée, son classement, et enfin une note estimée par ses professeurs. Hélas, le système a révélé plusieurs failles. This is amazing. La transparence a besoin de meilleurs chiens de garde. Peut-on corriger les biais ? Partout, les chercheurs universitaires et les grandes entreprises de technologie débattent des meilleures stratégies pour identifier et nettoyer leurs algorithmes de tout préjugé, explique la chercheuse au Media Lab du Massachusetts Institute of Technology Chelsea Barabas (@chels_bar) dans un récent billet pour le blog du Media Lab sur Medium.

Peut-on corriger les biais ?

De l’explicabilité des systèmes : les enjeux de l’explication des décisions automatisées. Etymologiquement, expliquer, c’est déployer, déplier, c’est-à-dire soulever les ambiguïtés qui se cachent dans l’ombre des plis.

De l’explicabilité des systèmes : les enjeux de l’explication des décisions automatisées

C’est donc également « ouvrir » (avec tout le sens que « l’ouverture » – open – a acquis dans le monde numérique), défaire, dépaqueter, c’est-à-dire non seulement enlever les paquets, dérouler les difficultés, mais aussi montrer les noeuds qu’ils forment et comprendre pourquoi ils se forment. Expliquer, c’est clarifier. De l’automatisation des inégalités. Dans une récente tribune pour le New York Times, l’avocate Elisabeth Mason (@elismason1), directrice du Laboratoire pauvreté et technologie qui dépend du Centre sur la pauvreté et l’inégalité de Stanford (@CenterPovlneq) soulignait que le Big data et l’intelligence artificielle étaient amenés à être des outils puissants pour lutter contre la pauvreté.

De l’automatisation des inégalités

Auditer les algorithmes : de la difficulté de passer des principes aux applications concrètes. Peut-on corriger les biais ? Code is Outlaw. C'est la lutte digitale et la grève reconduc'stream. Lorsque des sociologues se pencheront sur les grandes grèves et les mouvements sociaux du 21ème siècle (ils ont déjà commencé et je vous recommande plus que chaudement l'ouvrage de Zeynep Tufekci, Twitter et les gaz lacrymogènes), ils verront entre autres que les caisses de grève crowdfundées et autres cagnottes de soutien en ligne sont devenues une forme de standard.

Code is Outlaw. C'est la lutte digitale et la grève reconduc'stream.

Et que la lutte est streamable avant que d'être finale comme en témoigne le délicieusement nommé Recondu.stream. Plusieurs phénomènes sont en train de converger entre technique et société. Entre mobilisations sociales et mobilités techniques. Entre sociabilités techniques et mobilisations tout court. Contre la "Tech". Code is Law – Traduction française du célèbre article de Lawrence Lessig. Le 5 mars dernier, Tristan Nitot se pose la question suivante sur Identi.ca : « Je me demande s’il existe une version française de Code is Law, ce texte sublime de Lessig ». Monsieur Nitot qui évoque un texte sublime de Monsieur Lessig… Mais que vouliez-vous que nos traducteurs de Framalang fassent, si ce n’est participer à modifier favorablement la réponse de départ étonnamment négative !

Écrit il y a plus de dix ans, cet article majeur a non seulement fort bien vieilli mais se serait même bonifié avec le temps et l’évolution actuelle du « cyberespace » où neutralité du net et place prise par les Microsoft, Apple, Google et autres Facebook occupent plus que jamais les esprits et nos données[1]. Bonne lecture… Le code fait loi – De la liberté dans le cyberespace. Pour en finir avec le vrai-faux débat sur les "biais" de l'intelligence artificielle. Yann le Cun, chercheur-star en intelligence artificielle chez Facebook, s’illustrait récemment avec un tweet dans lequel il résumait une tribune de Sendhil Mullainathan au New-York Times : « Les gens sont biaisés.

Pour en finir avec le vrai-faux débat sur les "biais" de l'intelligence artificielle

The Seductive Diversion of ‘Solving’ Bias in Artificial Intelligence. The Second Wave of Algorithmic Accountability « Law and Political Economy. La seconde vague de la responsabilité algorithmique. Algorithmes et responsabilités. France Stratégie organisait la semaine dernière une rencontre entre Daniel Le Métayer, directeur de recherche à l’INRIA, coordinateur notamment du projet Capris sur la vie privée (et qui avait été très critique sur la Loi renseignement) et Antoinette Rouvroy, chercheuse au Centre de recherche en information, droit et société (CRIDS), à l’université de Namur, pour discuter des algorithmes et de leurs impacts.

Comme souvent, l’enjeu a d’abord été de tenter de cerner de ce dont on parle et ce n’est pas si simple, tant le terme d’algorithme caractérise désormais les boites à tout faire des traitements logiciels. Pour Daniel Le Métayer, les algorithmes sont des procédés de calcul qui recouvrent une grande variété de procédés techniques. Mais plus que les procédés techniques, ce sont leurs effets qui sont importants à comprendre, du fait de leurs impacts sur nos décisions, nos comportements, notre vie quotidienne… et plus encore de leurs effets normatifs. Deconstructing the algorithmic sublime - Morgan G Ames, 2018. A growing number of scholars have noted a distinct algorithmic moment in the contemporary zeitgeist. With machine learning again in ascendancy amid ever-expanding practices to digitize not only all of the important records of our lives but an increasing quantity of our casual traces—mining them like archeologists at digital middens—it is indeed no wonder that the academy has also made an “algorithmic turn.”

In response, universities are adding interdisciplinary programs in “data science,” and scholars across the sciences and humanities are weighing in on the promises and perils of algorithmic approaches to their work. While it is true that algorithms—loosely defined as a set of rules to direct the behavior of machines or humans—are shaping infrastructures, practices, and daily lives around the world via their computerized instantiations, they are neither strictly digital nor strictly modern.

. , in fact predates the digital computer by over a thousand years (Al-Daffa, 1977). Algorithm can identify 99.98% of users in supposedly "anonymized" data. Politique des algorithmes. Nous avons passé le 1er Avril que quelqu'un, sur Facebook ou Twitter je ne sais plus, a rebaptisé "Journée des Fake News". C'est en effet, comme il le faisait remarquer, la seule journée dans l'année où nous nous demandons si une information est vraie avant de la partager.

C'est aussi la seule journée où l'on se targue avec gourmandise d'avoir propagé des Fake News avant que l'on ne réadopte, dans pareille situation et pour les 364 jours un quart restants, la posture contrite de l'enfant pris les mains dans le pot de confiture. Le jour des fous et des mensonges. Telles sont deux des appellations de cette fête du faux à travers le monde. Une fête qui se pare naturellement de nouveaux atours quand le faux est devenu l'une des préoccupations majeures des 364 jours restants au point que les gouvernements se mettent en tête de légiférer.

La première raison est celle de l'architecture technique. Fenêtre sur cour. Algorithmes partout, intelligence nulle part. A propos de Gillian Brockell. L'histoire est de celles qui font monter les larmes. En tout cas moi j'ai eu les yeux qui piquent en la lisant. C'est celle d'une femme qui à perdu son enfant à la naissance. Un enfant mort-né. L'algorithme de la marque jaune. Oui. #GiletsJaunes : de l'algorithme des pauvres gens à l'internet des familles modestes.

Facebook a énormément servi de relai à la mobilisation des Gilets Jaunes. Le mouvement n'y est peut-être pas "né" mais il y a tout au moins été largement incubé. Si ça vous tente, vous pouvez toujours relire ce que j'écrivais l'autre jour à ce propos dans "les gilets jaunes et la plateforme bleue". Facebook a également, comme à chaque grand mouvement populaire, été la ligne Maginot de toutes les cristallisations de ce qu'avant on appelait "l'opinion" et dont il est désormais l'antichambre vibrante et le gueuloir mouvant.

Aucun algorithme jamais, ne pourra défendre la démocratie. Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pousser la créature algorithmique dans les Datas) Peut-on désalgorithmiser le monde ? I'm a digital worker, killing an arab. Chronique de la guerre algorithmique. Black Boxes out of Cardboard: Algorithmic Literacy through Critical Board Game Design. As we enter an era in which algorithmic technology is woven into the fabric of almost all our social experiences,1 these computational systems have come to exercise a subtle but problematically pervasive power in society.2 As algorithms are generally invisible, “often referred to as ‘black box’ constructs, as they are not evident in user interfaces”, most people who engage with them daily are unaware of how they work or how they can be socially harmful.3 Consequently, academics, media critics, and civic organizations have called for initiatives that can foster public algorithmic literacy.4 This would allow the public to become more aware of, critical towards, and knowledgeable about how, when, and to what ends these automated systems impact their lives.

As a response to this call we set out to develop the critical board game Unveiling Interfaces as an MA Media Arts Cultures thesis project at Aalborg University, Denmark. Black Boxes out of Cardboard: Algorithmic Literacy through Critical Board Game Design. Algorithmic paranoia and the convivial alternative - Dan McQuillan, 2016. Io9.gizmodo. « Ce que les algorithmes voient est conditionné par l'argent » Peut-on désalgorithmiser le monde ? An Algorithm Isn’t Always the Answer. This is How The Instagram Algorithm Works in 2018. C & F Éditions. « Social Credit System » : la gouvernementalité algorithmique à la chinoise.

Pourquoi mes données personnelles ne peuvent pas être à vendre ! L’austérité est un algorithme. Facebook : des interactions significatives, vraiment ? Automatiser les inégalités. Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Réguler par la donnée ? Cédric Villani : « Ce qui a “buggé” dans APB, ce n’est pas le logiciel, mais bien l’Etat » Réinventer les interfaces.

Réinventer la programmation. Instagram. Les algorithmes comme construction sociale : rencontre avec Cathy O’Neil. Acteurs publics. Le code en confession. Acteurs publics.