background preloader

Pour la Journée des droits des femmes, le sexisme des algorithmes expliqué par Angèle

Pour la Journée des droits des femmes, le sexisme des algorithmes expliqué par Angèle
«Quand on tape “écolier”, on a des enfants qui vont à l'école. “Ecolière”, on a également des jeunes filles en costume d'écolière, érotisées.» «C’est tentant de leur montrer, même si c’est pas vrai», chante Angèle dans «Victime des réseaux». Et les exemples sont multiples, à l’image de l’algorithme d’Instagram qui semble privilégier les contenus proches de la nudité. Mais alors, qui blâmer? Ces lignes de codes sont-elles responsables des résultats affichés? «Ce qu'il faut entendre par données biaisées, c'est que ce sont des données réelles qui sont entrées, mais comme elles ont été créées par des humains qui ont des biais sexistes, elles sont tout sauf neutres.» Les algorithmes fournissent alors «une version plus stéréotypée de la réalité», souligne Isabelle Collet. «Alors Amazon a dit: “C'est l'IA qui est sexiste Ces biais sexistes sont aussi le résultat d’un manque de mixité dans les milieux technologiques, qui conçoivent les algorithmes. Balance ton algorithme.

https://www.heidi.news/sciences/les-biais-sexistes-des-algorithmes-expliques-par-angele

Related:  Question de genre(s)cultures numériquesAlgorithmes

Comment l’algorithme de Facebook échappe au contrôle de ses créateurs C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler. Posez vos questions : Facebook a-t-il définitivement échappé à ses créateurs ? Les « Facebook Files », une plongée dans les rouages de la machine à « likes » Les « Facebook Files » sont plusieurs centaines de documents internes à Facebook copiés par Frances Haugen, une spécialiste des algorithmes, lorsqu’elle était salariée du réseau social.

Les algorithmes sont-ils de droite ? Sachant qu'un algorithme est un éditorialiste comme les autres, sachant aussi qu'il est urgent, comme je le répète depuis plusieurs années, d’inscrire dans l’agenda politique la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation, se pose donc depuis un certain temps déjà la question de savoir si "les algorithmes" sont de gauche ou droite. Et depuis quelques jours, une nouvelle étude vient confirmer ce que beaucoup analysaient ou observaient déjà depuis longtemps : les algorithmes sont de droite (ceux de Twitter en tout cas). Le réseau social de microblogging vient en effet de faire paraître une étude - étude menée par Twitter** sur sa propre plateforme (sic) - qui indique que les contenus "de droite" sont beaucoup plus mis en avant par ses algorithmes sans que la firme ne soit pour autant capable de dire ... pourquoi (sic). Les algorithmes [de Twitter] sont de droite. "Sauf en Allemagne".

Un algorithme, qu’est-ce que ça fait ? - Le numérique en questions Lorsqu’on navigue sur Internet, par exemple sur YouTube, des algorithmes fonctionnent en arrière-plan pour nous proposer des contenus, dans ce cas-ci des vidéos. Les algorithmes peuvent remplir plusieurs fonctions : nous identifier par reconnaissance faciale ou vocale, calculer des itinéraires, faciliter les rencontres amoureuses, ou encore suggérer des contenus, comme c’est le cas sur Spotify, Netflix, Facebook ou le correcteur automatique de notre téléphone… parfois pour des recommandations très loufoques! Comment fonctionne un algorithme ?

Les algorithmes sont-ils incontrôlables ? L’audition ce matin à l’Assemblée, puis cet après-midi au Sénat de l’ancienne employée de Facebook, la lanceuse d’alerte Frances Haugen, a attiré l’attention publique sur la question des algorithmes qui organisent, hiérarchisent et classent les publications sur ce réseau social. Des accusations qui, après celles portées sur le même thème au Congrès des États-Unis et au Parlement européen, nourrissent l’inquiétude des législateurs sur la possibilité de contrôler les excès et les discours de haine sur les réseaux sociaux. Mais les algorithmes sont-ils responsables ?

Comment fonctionne l’algorithme de recommandation de YouTube ? Ou comment j’ai découvert le rap hardcore YouTube, comme la plupart des plates-formes numériques mondiales, est un « serveur-sirène ». Elle est en effet capable de capter notre attention et de la conserver, jalousement, au point de ne plus naviguer nulle part ailleurs sur le web. Ce qui nous retient sur YouTube, c’est principalement son algorithme de recommandation : en 2018, 70 % des vidéos que nous voyions étaient des recommandations. Etats-Unis. La reconnaissance faciale l’identifie, il est arrêté et incarcéré à tort Nijeer Parks, un Afro-Américain de 33 ans, a attaqué en justice la police et la ville de Woodbridge, dans le New Jersey, après avoir été victime d’une erreur de reconnaissance faciale. Début 2019, l’homme avait été arrêté pour un vol dans la boutique d’un hôtel et incarcéré pendant dix jours, raconte NBC News. Un logiciel d’identification l’avait confondu avec l’auteur des faits. Averti par sa grand-mère qu’un mandat d’arrêt le concernant avait été émis, le trentenaire s’était rendu au commissariat pour dissiper le malentendu. Il disposait en effet d’un alibi confirmant sa présence loin de l’hôtel au moment des faits.

Etats-Unis : Un algorithme raciste a privé des patients noirs d’une greffe de rein dont ils avaient besoin Certains algorithmes sont racistes. Ce fait est connu depuis plusieurs années, mais dans le cadre médical, c’est une première. Une intelligence artificielle (IA) utilisée par des médecins américains pour évaluer la nécessité d’une greffe de rein aurait ainsi tendance à défavoriser les patients Afro-Américains, selon une étude publiée le 15 octobre dans Journal of General Internal Medicine. L’outil est programmé pour faire le bilan rénal des patients et signaler ceux dont la situation est la plus critique. Mais l’algorithme a été conçu de telle manière que l’état de santé des personnes noires est sur-noté. Pour arriver à leurs conclusions, les auteurs de l’étude ont analysé les dossiers médicaux de 57.000 patients d’un réseau d’établissements de Boston et des environs.

Après avoir favorisé les algorithmes pour modérer les contenus, YouTube fait marche arrière Onze millions de vidéos supprimées entre avril et juin, soit deux fois plus qu’en temps normal : voilà ce qui s’est passé quand YouTube a décidé d’accorder plus de place aux algorithmes dans son système de modération, a déclaré l’entreprise au Financial Times, dimanche 20 septembre. Elle a décidé de revenir en arrière. En mars, alors que la pandémie gagnait en importance, le géant américain de l’hébergement de vidéos (propriété de Google) avait annoncé qu’il renvoyait chez eux une partie de ses modérateurs humains et qu’il allait renforcer l’utilisation de logiciels pour exercer certaines de leurs tâches. twitter amp.lefigaro

Related: