background preloader

Données et algorithmes

Facebook Twitter

Peut-on corriger les biais ? Partout, les chercheurs universitaires et les grandes entreprises de technologie débattent des meilleures stratégies pour identifier et nettoyer leurs algorithmes de tout préjugé, explique la chercheuse au Media Lab du Massachusetts Institute of Technology Chelsea Barabas (@chels_bar) dans un récent billet pour le blog du Media Lab sur Medium. Mais, comme le disait déjà Kate Crawford, cette quête est vaine, notamment parce que pour ôter les biais, il faut prendre des décisions qui risquent d’en générer de nouveau et sous couvert de corrections « techniques » prendre des décisions aux enjeux politiques conséquents : quelle est la bonne proportion de parité par exemple et comment la déterminer ?

Pas si simple ! Il va nous falloir faire avec les biais, explique Chelsea Barabas. . « Il est beaucoup plus facile de réparer un appareil photo qui n’enregistre pas la peau foncée que de réparer un photographe qui ne voit pas les personnes à la peau foncée » Hubert Guillaud. Code is Outlaw. C'est la lutte digitale et la grève reconduc'stream. Lorsque des sociologues se pencheront sur les grandes grèves et les mouvements sociaux du 21ème siècle (ils ont déjà commencé et je vous recommande plus que chaudement l'ouvrage de Zeynep Tufekci, Twitter et les gaz lacrymogènes), ils verront entre autres que les caisses de grève crowdfundées et autres cagnottes de soutien en ligne sont devenues une forme de standard. Et que la lutte est streamable avant que d'être finale comme en témoigne le délicieusement nommé Recondu.stream. Plusieurs phénomènes sont en train de converger entre technique et société.

Entre mobilisations sociales et mobilités techniques. Entre sociabilités techniques et mobilisations tout court. Contre la "Tech". Contre "l'Uberisation". Et en parallèle donc, on finance collaborativement les caisses de grève. On est là Tech. Ce texte s'intitule donc "Appel des travailleuses et travailleurs du numérique pour une autre réforme des retraites" et est accessible sous le nom de domaine "Onestla.tech".

Code is (out)Law. Code is Law – Traduction française du célèbre article de Lawrence Lessig. Le 5 mars dernier, Tristan Nitot se pose la question suivante sur Identi.ca : « Je me demande s’il existe une version française de Code is Law, ce texte sublime de Lessig ». Monsieur Nitot qui évoque un texte sublime de Monsieur Lessig… Mais que vouliez-vous que nos traducteurs de Framalang fassent, si ce n’est participer à modifier favorablement la réponse de départ étonnamment négative ! Écrit il y a plus de dix ans, cet article majeur a non seulement fort bien vieilli mais se serait même bonifié avec le temps et l’évolution actuelle du « cyberespace » où neutralité du net et place prise par les Microsoft, Apple, Google et autres Facebook occupent plus que jamais les esprits et nos données[1]. Bonne lecture… Le code fait loi – De la liberté dans le cyberespace Code is Law – On Liberty in Cyberspace Lawrence Lessig – janvier 2000 – Harvard Magazine(Traduction Framalang : Barbidule, Siltaar, Goofy, Don Rico) À chaque époque son institution de contrôle, sa menace pour les libertés.

Pour en finir avec le vrai-faux débat sur les "biais" de l'intelligence artificielle. Yann le Cun, chercheur-star en intelligence artificielle chez Facebook, s’illustrait récemment avec un tweet dans lequel il résumait une tribune de Sendhil Mullainathan au New-York Times : « Les gens sont biaisés. Les données sont biaisées parce que les gens sont biaisés. Les algorithmes entraînés sur des données biaisées sont biaisés. Mais les algorithmes auto-apprenants ne sont pas biaisés.

Les biais dans les données peuvent être réparés. Les biais dans les gens sont plus difficiles à réparer. » Ces quelques mots remettent au goût du jour la vieille idée selon laquelle il existerait une intelligence artificielle pure et libérée de tous biais de traitement (eux-mêmes liés aux biais cognitifs de leurs concepteurs, ou à des choix intentionnels). Haro sur les biais Les biais de l’intelligence artificielle, algorithmes et autres systèmes auto-apprenants sont bien réels. Les biais de l’IA : une diversion ? Rien de très nouveau donc, ceci a déjà été dit ou écrit mille fois. The Seductive Diversion of ‘Solving’ Bias in Artificial Intelligence. The Second Wave of Algorithmic Accountability « Law and Political Economy. Frank Pasquale – Over the past decade, algorithmic accountability has become an important concern for social scientists, computer scientists, journalists, and lawyers.

Exposés have sparked vibrant debates about algorithmic sentencing. Researchers have exposed tech giants showing women ads for lower-paying jobs, discriminating against the aged, deploying deceptive dark patterns to trick consumers into buying things, and manipulating users toward rabbit holes of extremist content. Public-spirited regulators have begun to address algorithmic transparency and online fairness, building on the work of legal scholars who have called for technological due process, platform neutrality, and nondiscrimination principles. This policy work is just beginning, as experts translate academic research and activist demands into statutes and regulations. Lawmakers are proposing bills requiring basic standards of algorithmic transparency and auditing. Which systems really deserve to be built? La seconde vague de la responsabilité algorithmique. Algorithmes et responsabilités.

France Stratégie organisait la semaine dernière une rencontre entre Daniel Le Métayer, directeur de recherche à l’INRIA, coordinateur notamment du projet Capris sur la vie privée (et qui avait été très critique sur la Loi renseignement) et Antoinette Rouvroy, chercheuse au Centre de recherche en information, droit et société (CRIDS), à l’université de Namur, pour discuter des algorithmes et de leurs impacts. Comme souvent, l’enjeu a d’abord été de tenter de cerner de ce dont on parle et ce n’est pas si simple, tant le terme d’algorithme caractérise désormais les boites à tout faire des traitements logiciels. Pour Daniel Le Métayer, les algorithmes sont des procédés de calcul qui recouvrent une grande variété de procédés techniques. Mais plus que les procédés techniques, ce sont leurs effets qui sont importants à comprendre, du fait de leurs impacts sur nos décisions, nos comportements, notre vie quotidienne… et plus encore de leurs effets normatifs.

L’ouverture ne suffit pas. Deconstructing the algorithmic sublime - Morgan G Ames, 2018. A growing number of scholars have noted a distinct algorithmic moment in the contemporary zeitgeist. With machine learning again in ascendancy amid ever-expanding practices to digitize not only all of the important records of our lives but an increasing quantity of our casual traces—mining them like archeologists at digital middens—it is indeed no wonder that the academy has also made an “algorithmic turn.” In response, universities are adding interdisciplinary programs in “data science,” and scholars across the sciences and humanities are weighing in on the promises and perils of algorithmic approaches to their work.

While it is true that algorithms—loosely defined as a set of rules to direct the behavior of machines or humans—are shaping infrastructures, practices, and daily lives around the world via their computerized instantiations, they are neither strictly digital nor strictly modern. . , in fact predates the digital computer by over a thousand years (Al-Daffa, 1977). References. Algorithm can identify 99.98% of users in supposedly "anonymized" data. In The New York Times, Gina Kolata writes that a team of scientists has proven a method of identifying specific individuals from "anonymous" data sets. Scientists at Imperial College London and Université Catholique de Louvain, in Belgium, reported in the journal Nature Communications that they had devised a computer algorithm that can identify 99.98 percent of Americans from almost any available data set with as few as 15 attributes, such as gender, ZIP code or marital status.

Even more surprising, the scientists posted their software code online for anyone to use. That decision was difficult, said Yves-Alexandre de Montjoye, a computer scientist at Imperial College London and lead author of the new paper. They had to publish because to do the research is to realize that criminals and governments already did the research. A generalized method for re-identifying people in "anonymized" data-sets Rosetta Stone is still the fastest way to learn a new language Every language has its quirks.

Politique des algorithmes. Nous avons passé le 1er Avril que quelqu'un, sur Facebook ou Twitter je ne sais plus, a rebaptisé "Journée des Fake News". C'est en effet, comme il le faisait remarquer, la seule journée dans l'année où nous nous demandons si une information est vraie avant de la partager. C'est aussi la seule journée où l'on se targue avec gourmandise d'avoir propagé des Fake News avant que l'on ne réadopte, dans pareille situation et pour les 364 jours un quart restants, la posture contrite de l'enfant pris les mains dans le pot de confiture. Le jour des fous et des mensonges. Telles sont deux des appellations de cette fête du faux à travers le monde.

Une fête qui se pare naturellement de nouveaux atours quand le faux est devenu l'une des préoccupations majeures des 364 jours restants au point que les gouvernements se mettent en tête de légiférer. Or légiférer sur le faux est hautement foireux comme nous le verrons plus bas. Mais avant cela, revenons brièvement sur cette épiphanie du faux. En résumé ? Algorithmes partout, intelligence nulle part. A propos de Gillian Brockell. L'histoire est de celles qui font monter les larmes. En tout cas moi j'ai eu les yeux qui piquent en la lisant. C'est celle d'une femme qui à perdu son enfant à la naissance. Un enfant mort-né. Une femme qui écrit aux patrons des GAFA, aux patrons des "Tech Companies", pour leur demander d'arrêter de lui proposer des liens publicitaires sur une maternité dont elle doit faire le deuil.

Cette femme s'appelle Gillian Brockell. "Chères entreprises technologiques, Je sais que vous avez su que j'étais enceinte. Cette femme c'est le crapaud fou algorithmique, celle qui ne rentre pas dans les clous, dans les motifs, dans les "patterns" de prévisibilité et de prédictibilité de l'empreinte comportementale et navigationnelle qui fait de nous ce que nous sommes aux yeux des grandes plateformes : des documents comme les autres. Gillian a raison. A l'échelle qui est la leur, à l'échelle macro du ciblage comportemental, Gillian et son bébé ne comptent pas.

Oh la catégorie existe. L'algorithme de la marque jaune. Oui. Encore un article sur Facebook et les Gilets Jaunes. J'ai passé les deux derniers jours essentiellement au téléphone à répondre à des interviews et à voir s'envoler les statistiques de consultation de mes trois articles sur Facebook et les Gilets Jaunes. Dans la plupart de ces entretiens, la question qui revient tout le temps est celle de "l'algorithme de Facebook". Alors "l'algorithme de Facebook" s'appelle le "Edgerank" et c'est un peu comme la recette du Coca-Cola : tout le monde à une vague idée de ce qu'il peut y avoir dedans mais personne ne sait exactement ce qu'il y a vraiment dedans.

Il existe dans le monde merveilleux des internets plein de documents et d'articles expliquant le fonctionnement de l'algorithme de Facebook et les critères qu'il utilise. L'une des images que j'utilise le plus souvent pour expliquer à mes étudiants le fonctionnement de l'algorithme de Facebook est celle-ci, jadis proposée par TechCrunch : L'algorithme et l'algorithmique. Et elle ajoute : Simple. #GiletsJaunes : de l'algorithme des pauvres gens à l'internet des familles modestes. Facebook a énormément servi de relai à la mobilisation des Gilets Jaunes. Le mouvement n'y est peut-être pas "né" mais il y a tout au moins été largement incubé. Si ça vous tente, vous pouvez toujours relire ce que j'écrivais l'autre jour à ce propos dans "les gilets jaunes et la plateforme bleue". Facebook a également, comme à chaque grand mouvement populaire, été la ligne Maginot de toutes les cristallisations de ce qu'avant on appelait "l'opinion" et dont il est désormais l'antichambre vibrante et le gueuloir mouvant.

Selon que vous soyez pro ou anti Gilets Jaunes, selon la sociologie de vos liens forts et de vos liens faibles dans la plateforme bleue, vous y aurez tantôt aperçu "les Gilets Jaunes contre les médias", tantôt "les médias contre les Gilets Jaunes". Et dans un camp comme dans l'autre, les mêmes armes virales : montages d'images ou de citations tronquées, mèmes et mix d'infos et d'intox en tous genres.

Quelque part entre BHL et Franck Dubosc. Nous y sommes. Aucun algorithme jamais, ne pourra défendre la démocratie. Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pousser la créature algorithmique dans les Datas) Peut-on désalgorithmiser le monde ? Passer d'un monde contrôlé par une trentaine d'algorithmes (10 + 10 + 10) à un monde sans algorithmes. Ou à tout le moins arriver à habiter le réel, dans la sphère intime, personnelle, dans notre travail, dans nos loisirs, en parvenant à s'extraire de toute forme de guidance et/ou de déterminisme algorithmique que nous n'aurions pas choisi, dont nous ne serions pas conscients et dont l'intentionnalité réelle nous demeurerait obscure. Éviter qu'un jour peut-être la dysalgorithmie, ce "trouble de résistance algorithmique où le sujet fait preuve d'un comportement ou d'opinions non-calculables", ne devienne une pathologie reconnue.

Sauf à vivre dans une déconnexion totale, est-il possible de s'abstraire de ces formes de guidage algorithmique aussi sourdes que constantes ? Plusieurs phénomènes sont en train de se produire et concourent à créer un moment inédit à l'échelle de l'emprise que les GAFA ont sur l'écosystème numérique depuis une quinzaine d'années.

Mais les usages ont changé. I'm a digital worker, killing an arab. Chronique de la guerre algorithmique. Black Boxes out of Cardboard: Algorithmic Literacy through Critical Board Game Design. As we enter an era in which algorithmic technology is woven into the fabric of almost all our social experiences,1 these computational systems have come to exercise a subtle but problematically pervasive power in society.2 As algorithms are generally invisible, “often referred to as ‘black box’ constructs, as they are not evident in user interfaces”, most people who engage with them daily are unaware of how they work or how they can be socially harmful.3 Consequently, academics, media critics, and civic organizations have called for initiatives that can foster public algorithmic literacy.4 This would allow the public to become more aware of, critical towards, and knowledgeable about how, when, and to what ends these automated systems impact their lives.

As a response to this call we set out to develop the critical board game Unveiling Interfaces as an MA Media Arts Cultures thesis project at Aalborg University, Denmark. Practice-led Research and Critical Game Design Figure 1. Phase 1: Black Boxes out of Cardboard: Algorithmic Literacy through Critical Board Game Design. Algorithmic paranoia and the convivial alternative - Dan McQuillan, 2016. Io9.gizmodo. « Ce que les algorithmes voient est conditionné par l'argent » Peut-on désalgorithmiser le monde ? Passer d'un monde contrôlé par une trentaine d'algorithmes (10 + 10 + 10) à un monde sans algorithmes.

Ou à tout le moins arriver à habiter le réel, dans la sphère intime, personnelle, dans notre travail, dans nos loisirs, en parvenant à s'extraire de toute forme de guidance et/ou de déterminisme algorithmique que nous n'aurions pas choisi, dont nous ne serions pas conscients et dont l'intentionnalité réelle nous demeurerait obscure. Éviter qu'un jour peut-être la dysalgorithmie, ce "trouble de résistance algorithmique où le sujet fait preuve d'un comportement ou d'opinions non-calculables", ne devienne une pathologie reconnue. Sauf à vivre dans une déconnexion totale, est-il possible de s'abstraire de ces formes de guidage algorithmique aussi sourdes que constantes ? Plusieurs phénomènes sont en train de se produire et concourent à créer un moment inédit à l'échelle de l'emprise que les GAFA ont sur l'écosystème numérique depuis une quinzaine d'années.

Mais les usages ont changé. Opinion | An Algorithm Isn’t Always the Answer. This is How The Instagram Algorithm Works in 2018. C & F Éditions. « Social Credit System » : la gouvernementalité algorithmique à la chinoise. Pourquoi mes données personnelles ne peuvent pas être à vendre ! L’austérité est un algorithme. Facebook : des interactions significatives, vraiment ? Automatiser les inégalités. Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. Réguler par la donnée ? Cédric Villani : « Ce qui a “buggé” dans APB, ce n’est pas le logiciel, mais bien l’Etat » Réinventer les interfaces. Réinventer la programmation. Instagram. Les algorithmes comme construction sociale : rencontre avec Cathy O’Neil. Acteurs publics. Le code en confession. Acteurs publics.