background preloader

Algorithmes

Facebook Twitter

Le coût écologique d’internet est trop lourd, il faut penser un internet low-tech. Robotique, objets connectés, bio et nanotechnologies, chimie de synthèse...

Le coût écologique d’internet est trop lourd, il faut penser un internet low-tech

Parce que l’innovation est le principal moteur de la croissance qui dévore la planète, Reporterre publie une série de tribunes visant à démythifier le progrès et faire de la recherche scientifique un terrain de controverse et de luttes. Félix Tréguer est membre fondateur de La Quadrature du Net — association de défense des libertés publiques à l’ère numérique. Gaël Trouvé est cofondateur de Scolopendre – hackerspace visant une réappropriation citoyenne de la gestion des déchets électroniques. Comment les algos nous rendent tous débiles. N’avez-vous jamais eu l’impression de tourner en rond sur le Net ?

Comment les algos nous rendent tous débiles

Un peu comme un poisson rouge à qui on aurait filé l’océan et qui ne voudrait pas quitter son bocal. Chaque jour, je me rends sur les mêmes sites, réseaux sociaux, les mêmes apps... bien conscient, pourtant, de l’immensité de la Toile et ses services connexes connectés. Un phénomène encore plus insidieux s’est installé dans mon bocal : je tourne dans le même sens. J’écoute la même musique sur Spotify, je mate des vidéos qui se ressemblent sur YouTube, mon fil d’actu Facebook est une l’antithèse même de la notion de surprise... On aurait vite fait de jeter la faute à une curiosité paresseuse. Impala met les algorithmes au service de l'orientation. Un nuage de points aux couleurs multiples accueille l'utilisateur d'Impala.

Impala met les algorithmes au service de l'orientation

Tous représentent un métier recensé par la start-up. En quelques clics, l'internaute est invité à lister ses centres d'intérêt et ses appétences parmi douze groupes de métiers et toute une série de mots-clés. Au fil de la navigation, les résultats s'affinent et le nuage s'éclaircit pour aboutir à quelques métiers cibles. Quand on demande à Google si l’Holocauste a bien eu lieu... Revoilà le déjà vieux serpent de mer.

Quand on demande à Google si l’Holocauste a bien eu lieu...

Dans la tempête des Fake News et à l’ère de la post-vérité, Google, ou plus précisément son algorithme, est accusé de mettre en avant des résultats de recherche antisémites ou négationnistes. Ce n’est pourtant pas la première fois que « Google cache des juifs... » ni que les algorithmes font preuve de racisme ou que les « intelligences artificielles » s’essaient au fascisme. En quelques mots la clé de ces problèmes est la suivante : les algorithmes produisent une forme de déterminisme (dans la sélection des informations et les choix, nos choix, qui en découlent).

Ce déterminisme s’inscrit dans un régime de vérité différent selon chaque plateforme, et quels que soient les différents régimes de vérité des différentes plateformes, tous donnent une prime à la tyrannie des agissants (cf les travaux de Dominique Cardon). Making of. Dominique Cardon : "Les algorithmes utilisent les traces laissées dans le passé pour calculer le futur"

Les algorithmes sont-ils les nouveaux maîtres du monde ?

Dominique Cardon : "Les algorithmes utilisent les traces laissées dans le passé pour calculer le futur"

Le sociologue Dominique Cardon tente de répondre à cette question dans son dernier livre. Il est l'invité d'Ali Baddou. Les algorithmes sont-ils les nouveaux maîtres du monde ? Le sociologue tente de répondre à cette question dans son dernier livre "A quoi rêvent les algorithmes: Nos vies à l’heure des big data" (Seuil). Quelle responsabilité pour le code ? Entretien avec danah boyd. Comme toutes constructions humaines, codes et algorithmes comportent des biais, dont il est aujourd’hui complexe de cerner l’impact réel. Au point que certains chercheurs en font un terrain d’études à part entière. Qu’il s’agisse d’une « peur des algorithmes » chez la sociologue Zeynep Tufekci, du principe de « bulles de filtres » développé par le militant Eli Pariser ou encore d’une démonstration factuelle des conséquences des algorithmes biaisées, cette science qui façonne le web tel que nous le connaissons, avec ses suggestions de plus en plus pointues et ses classements en termes de pertinence, ne fait plus qu’intriguer : elle peut aussi effrayer.

Il y a peu, la chercheuse danah boyd a réalisé une intervention remarquée lors du Personal Democracy Forum 2016 (PDF), intitulée Be Careful What You Code For (« Codeurs, faites attention à ce que vous faites »). « C’était une provocation », nous explique-t-elle. « Mais si vous ou vos lecteurs vous en emparez, tant mieux ! ».