background preloader

Algorithmes

Facebook Twitter

Pour la Journée des droits des femmes, le sexisme des algorithmes expliqué par Angèle. «Quand on tape “écolier”, on a des enfants qui vont à l'école.

Pour la Journée des droits des femmes, le sexisme des algorithmes expliqué par Angèle

“Ecolière”, on a également des jeunes filles en costume d'écolière, érotisées.» «C’est tentant de leur montrer, même si c’est pas vrai», chante Angèle dans «Victime des réseaux». Et les exemples sont multiples, à l’image de l’algorithme d’Instagram qui semble privilégier les contenus proches de la nudité. Mais alors, qui blâmer? Ces lignes de codes sont-elles responsables des résultats affichés? «Ce qu'il faut entendre par données biaisées, c'est que ce sont des données réelles qui sont entrées, mais comme elles ont été créées par des humains qui ont des biais sexistes, elles sont tout sauf neutres.» Les algorithmes fournissent alors «une version plus stéréotypée de la réalité», souligne Isabelle Collet.

«Alors Amazon a dit: “C'est l'IA qui est sexiste Ces biais sexistes sont aussi le résultat d’un manque de mixité dans les milieux technologiques, qui conçoivent les algorithmes. Balance ton algorithme. Comment fonctionne l’algorithme de recommandation de YouTube ? Ou comment j’ai découvert le rap hardcore. YouTube, comme la plupart des plates-formes numériques mondiales, est un « serveur-sirène ».

Comment fonctionne l’algorithme de recommandation de YouTube ? Ou comment j’ai découvert le rap hardcore

Elle est en effet capable de capter notre attention et de la conserver, jalousement, au point de ne plus naviguer nulle part ailleurs sur le web. Ce qui nous retient sur YouTube, c’est principalement son algorithme de recommandation : en 2018, 70 % des vidéos que nous voyions étaient des recommandations. Pour chaque vidéo visionnée, l’algorithme en recommande d’autres et, immanquablement, les vidéos s’enchaînent sans que l’on s’en aperçoive.

Comment fonctionne l’algorithme de recommandation de YouTube ? Imaginons que YouTube (donc Google) ne me connaisse pas encore car j’accède à la plate-forme sans être identifié, depuis un lieu inconnu du cyberespace français (possible avec un VPN, par exemple). Je vois depuis la page d’accueil des vidéos récentes et les « tendances » du moment. Encore une fois, c’est logique : 13 Block et Vald font tous les deux du rap. Etats-Unis. La reconnaissance faciale l’identifie, il est arrêté et incarcéré à tort. Nijeer Parks, un Afro-Américain de 33 ans, a attaqué en justice la police et la ville de Woodbridge, dans le New Jersey, après avoir été victime d’une erreur de reconnaissance faciale.

Etats-Unis. La reconnaissance faciale l’identifie, il est arrêté et incarcéré à tort

Début 2019, l’homme avait été arrêté pour un vol dans la boutique d’un hôtel et incarcéré pendant dix jours, raconte NBC News. Amp.lefigaro. Etats-Unis : Un algorithme raciste a privé des patients noirs d’une greffe de rein dont ils avaient besoin. Certains algorithmes sont racistes.

Etats-Unis : Un algorithme raciste a privé des patients noirs d’une greffe de rein dont ils avaient besoin

Ce fait est connu depuis plusieurs années, mais dans le cadre médical, c’est une première. Une intelligence artificielle (IA) utilisée par des médecins américains pour évaluer la nécessité d’une greffe de rein aurait ainsi tendance à défavoriser les patients Afro-Américains, selon une étude publiée le 15 octobre dans Journal of General Internal Medicine. L’outil est programmé pour faire le bilan rénal des patients et signaler ceux dont la situation est la plus critique. Mais l’algorithme a été conçu de telle manière que l’état de santé des personnes noires est sur-noté.

Pour arriver à leurs conclusions, les auteurs de l’étude ont analysé les dossiers médicaux de 57.000 patients d’un réseau d’établissements de Boston et des environs. Leur découverte concerne 700 malades. L’IA à l’origine de cette inégalité a été ouvertement programmée pour tenir compte de la couleur de peau des sujets. Après avoir favorisé les algorithmes pour modérer les contenus, YouTube fait marche arrière.

Onze millions de vidéos supprimées entre avril et juin, soit deux fois plus qu’en temps normal : voilà ce qui s’est passé quand YouTube a décidé d’accorder plus de place aux algorithmes dans son système de modération, a déclaré l’entreprise au Financial Times, dimanche 20 septembre.

Après avoir favorisé les algorithmes pour modérer les contenus, YouTube fait marche arrière

Elle a décidé de revenir en arrière. En mars, alors que la pandémie gagnait en importance, le géant américain de l’hébergement de vidéos (propriété de Google) avait annoncé qu’il renvoyait chez eux une partie de ses modérateurs humains et qu’il allait renforcer l’utilisation de logiciels pour exercer certaines de leurs tâches. En temps normal, ces programmes d’intelligence artificielle (IA) « aident à détecter les contenus potentiellement problématiques et les envoient à des modérateurs humains pour qu’ils les évaluent », écrivait alors YouTube.

Algocratie : L'inégalité programmée - #DATAGUEULE 84. Guillaume et les algorithmes.