background preloader

Quelle responsabilité pour le code ? Entretien avec danah boyd

Comme toutes constructions humaines, codes et algorithmes comportent des biais, dont il est aujourd’hui complexe de cerner l’impact réel. Au point que certains chercheurs en font un terrain d’études à part entière. Qu’il s’agisse d’une « peur des algorithmes » chez la sociologue Zeynep Tufekci, du principe de « bulles de filtres » développé par le militant Eli Pariser ou encore d’une démonstration factuelle des conséquences des algorithmes biaisées, cette science qui façonne le web tel que nous le connaissons, avec ses suggestions de plus en plus pointues et ses classements en termes de pertinence, ne fait plus qu’intriguer : elle peut aussi effrayer. Il y a peu, la chercheuse danah boyd a réalisé une intervention remarquée lors du Personal Democracy Forum 2016 (PDF), intitulée Be Careful What You Code For (« Codeurs, faites attention à ce que vous faites »). « C’était une provocation », nous explique-t-elle. « Mais si vous ou vos lecteurs vous en emparez, tant mieux ! ».

https://rslnmag.fr/cite/danah-boyd-responsabilite-code-ethique-codeur-societe-ecologie/

Related:  EMI / EAM / CLEMIÀ lire, ranger plus tardAlgorithmesRECHERCHE

L’identité au défi du numérique - Collège des Bernardins « Comment habiter les environnements hautement techniques de manière humaine ? » Nous sommes aujourd’hui plus de 3.4 milliards d’êtres humains connectés à internet. TEST. Êtes-vous coincés dans votre bulle? Pour faire directement le test de la bulle et lire vos résultats, cliquer ici. Pour une explication des origines du test de la bulle, lire l'article ci-dessous. Encore plus que la soi-disant «post-vérité», la «bulle» serait-elle le mot de l'année 2016? «Vous vivez dans une bulle. Ou plutôt dans une grande caisse de résonance capable de vous convaincre, vous et vos amis, que les Américains n'éliront pas cet idiot de Trump», avait prévenu le réalisateur Michael Moore dans un texte prophétique, plusieurs mois avant l'élection de Donald Trump. L'opinion selon laquelle «The Donald» était avant tout un bouffon sinistre incapable d'être pris au sérieux n'était d'ailleurs pas l'apanage de la gauche intellectuelle, mais concernait les élites urbaines des deux grands partis.

Dominique Cardon : "Les algorithmes utilisent les traces laissées dans le passé pour calculer le futur" Les algorithmes sont-ils les nouveaux maîtres du monde ? Le sociologue Dominique Cardon tente de répondre à cette question dans son dernier livre. Il est l'invité d'Ali Baddou. Les algorithmes sont-ils les nouveaux maîtres du monde ? Le sociologue tente de répondre à cette question dans son dernier livre "A quoi rêvent les algorithmes: Nos vies à l’heure des big data" (Seuil). Le professeur explique leur fonctionnement :

Octopusnotes octopus notes est une revue qui soutient la création artistique contemporaine et la recherche universitaire. Chaque parution se présente en trois collections. La première propose un « mémoire » de recherche rédigé et soutenu très récemment dont le champ d’étude porte sur l’art de la seconde moitié du XXe siècle jusqu’à aujourd’hui. La deuxième collection, intitulée « propos », est consacrée aux entretiens ou écrits d’artistes. Pour la troisième collection, « notes », octopus notes invite un artiste à concevoir une édition limitée.

Un « mur de la honte » pour les commentaires homophobes « L’Union-L’Ardennais » a diffusé, en ligne et sur papier, des commentaires haineux de ses lecteurs, parfois avec les vrais noms et photos, en espérant que « cela poussera les gens à réfléchir avant de commenter ». LE MONDE | • Mis à jour le | Par Violaine Morin En ouvrant l’édition papier de L’Union du 23 novembre, édition de Châlons-en-Champagne, on trouve un article plutôt rare : une sélection de commentaires homophobes postés par des lecteurs en bas d’un article, publiés en pleine page, avec les profils Facebook des auteurs. Comment en est-on arrivé là ? Des affiches de prévention du VIH, parmi les 8 000 diffusées dans 130 villes par le ministère de la santé, ont été taguées et dégradées à Châlons-en-Champagne. L’agence locale du journal L’Union a décidé de publier, dans l’édition du 22 novembre, un article intitulé « Cinq raisons d’avoir honte après le vandalisme des affiches contre le VIH à Châlons ».

Du problème de la qualité des données et de la manière de le résoudre... Comme le rappelait très justement Dominique Cardon dans son interview du vendredi 6 janvier sur France Inter : « [...]il faut faire attention, les algorithmes, c’est idiot, c’est une procédure statistique un peu bête qui utilise des données pour faire un grand calcul massif[...] » Comme l'a expliqué Dominique Cardon malgré les coupures incessantes d'Ali Baddou (et comme je l'avais fait beaucoup plus modestement), l'algorithme n'est pas une entité en soi : ce n'est qu'un code source mis au point par un humain qui détermine la « procédure statistique » exécuté sur et grâce à des données. Ces dernières sont donc d'une importance fondamentale. Il y a presque 10 ans, Christian Fauré faisait état sur son blog d’une certaine déception des organisations devant les résultats des outils de reporting et de Business Intelligence au regard de l’investissement effectué pour les déployer.

Impala met les algorithmes au service de l'orientation Un nuage de points aux couleurs multiples accueille l'utilisateur d'Impala. Tous représentent un métier recensé par la start-up. En quelques clics, l'internaute est invité à lister ses centres d'intérêt et ses appétences parmi douze groupes de métiers et toute une série de mots-clés. Au fil de la navigation, les résultats s'affinent et le nuage s'éclaircit pour aboutir à quelques métiers cibles. Construit autour d'une expérience utilisateur ludique et intuitive, Impala repense le processus d'orientation des jeunes, en privilégiant non leur parcours pédagogique, mais "leurs motivations et leurs talents", argumente Hector Balas.

Les images sont-elles encore produites pour être regardées par les humains Pour l’artiste Trevor Paglen (@trevorpaglen, Wikipédia), qui s’intéresse depuis longtemps à la surveillance de masse (voir le portrait de lui que réalisait la Gaîté Lyrique), la culture visuelle, radicalement transformée par le numérique, est pourtant en grande partie devenue invisible. « Une majorité écrasante d’images sont désormais faites par des machines pour d’autres machines, mettant rarement des humains dans la boucle », explique-t-il dans le New Inquiry. Nous entrons dans l’ère des images invisibles ! L’image n’est plus produite pour être regardée par des humains Les spécialistes de la culture visuelle pensent que la relation entre les humains et les images a changé avec l’arrivée du numérique, c’est certainement vrai reconnaît Paglen, mais la révolution n’est peut-être pas où l’on pense. « Ce qui est vraiment révolutionnaire dans l’avènement des images numériques, c’est qu’elles sont fondamentalement lisibles par des machines », indépendamment du sujet humain. Hubert Guillaud

franceinfo junior. Comment les fausses informations circulent-elles ? Le vote des électeurs a-t-il été influencé par les fausses informations diffusées lors de l'élection américaine ? Ont-elles eu un impact sur le comportement des électeurs ? C'est ce que certains affirment, y compris l'un des auteurs de ces infos bidons. La Finlande va devenir le premier pays à supprimer toutes les matières scolaires Le système éducatif finlandais est considéré comme l’un des meilleurs au monde. Dans les classements internationaux concernant l’éducation, la Finlande est toujours dans les 10 premiers. Toutefois, le gouvernement a décidé de ne pas s’en contenter, et d’entreprendre une véritable révolution de son système scolaire. Les responsables souhaitent supprimer toutes les matières scolaires : il n’y aura désormais plus de cours de physique, mathématiques, littérature ou histoire-géographie.

Quand on demande à Google si l’Holocauste a bien eu lieu... Revoilà le déjà vieux serpent de mer. Dans la tempête des Fake News et à l’ère de la post-vérité, Google, ou plus précisément son algorithme, est accusé de mettre en avant des résultats de recherche antisémites ou négationnistes. Ce n’est pourtant pas la première fois que « Google cache des juifs... » ni que les algorithmes font preuve de racisme ou que les « intelligences artificielles » s’essaient au fascisme.

Related: