background preloader

"Nous sommes dans l'illusion que le savoir est accessible à tous sur Internet"

"Nous sommes dans l'illusion que le savoir est accessible à tous sur Internet"
Nous avons eu l’opportunité de rencontrer Eric Guichard, enseignant-chercheur à Lyon, à l’Enssib. Il travaille sur la philosophie et l’anthropologie de l’Internet et prolonge ce travail à Paris où il est directeur de programme au Collège International de Philosophie. Il était accompagné de Sarah Lamandin, chargée de mission en philosophie pour l’Atelier Internet Lyonnais. Selon vous, à quel point Internet a-t-il transformé les relations entre les Hommes? Eric Guichard: En 1995, nous nous sommes demandés si l'internet allait transformer les pratiques des chercheurs, en leur permettant de moins aller en bibliothèques, de publier leurs articles en ligne, de favoriser un réel partage des savoirs scientifiques. L'internet est une technique un peu spéciale. Sarah Lamandin: Les réseaux sociaux nous montrent bien que ce n’est pas la technique qui a transformé le social. S.L: Sur l'internet, il y a énormément de bruit qui noie les véritables informations. Related:  technologie-et-societe

rue89.nouvelobs Tristan Harris a été le « philosophe produit » de Google pendant trois ans. Ça vous laisse perplexe ? Nous aussi, au début. On a découvert cet ingénieur informatique américain formé à Stanford via un post de Medium passionnant titré « Comment la technologie pirate l’esprit des gens ». Il y explique (en anglais) comment les entreprises de la Silicon Valley nous manipulent pour nous faire perdre le plus de temps possible dans leurs interfaces. Concrètement, Facebook a intérêt à ce qu’on scrolle son fil d’actu toute la journée, et pour ça, il nous détourne de notre intention initiale. Tristan Harris a créé un label, Time Well Spent, pour faire en sorte que les technologies nous redonnent du pouvoir au lieu de nous transformer en zombies boulimiques de notifications et de flux d’infos. Merci, votre inscription a bien été prise en compte. Tristan Harris à TedX Bruxelles - TedX Mais est-ce que c’est si grave, pour toi ? Ça nous rend vraiment fou, en fait (rire). C’est vrai. Mais ça a mal tourné ?

Internet Zinc #17 L’Union européenne a publié cette semaine un Code de Conduite pour lutter contre les « discours haineux illégaux en ligne » (traduction littérale, cf annonce de presse), signé par Facebook, Twitter, YouTube et Microsoft. Ces entreprises s’engagent à supprimer dans les 24 heures les contenus « haineux illégaux » signalés. Du côté européen, c’est très clairement un accord qui s’inscrit dans le cadre de la lutte contre le terrorisme. Mais c’est un accord extrêmement ambigu, finalement. La liberté d’expression est juridiquement sensiblement plus limitée en Europe qu’aux États-Unis, où le premier amendement est une garantie très importante. La différence culturelle entre Europe et États-Unis sur ce point est ancienne et importante, cf par exemple à la toute fin des années 1970 le soutien apporté par Chomsky à la liberté d’expression du négationniste Faurisson. Mais il faut remarquer d’abord que ces entreprises n’avaient déjà aucune obligation de respecter la liberté de parole.

Pénurie d'essence et nouveaux medias Fut un temps où, en situation de blocage des raffineries, l'information se limitait à quelques postures bien rodées. Le gouvernement affirmait sa détermination à ne pas laisser s'installer la pénurie (d'ailleurs, il n'y avait jamais, il n'y aurait jamais de pénurie, aussi vrai que le gouvernement gouvernait). Les bloqueurs, quand on voulait bien les écouter, faisaient part de leur détermination. Enfin, le "Français à la pompe" (car le vrai Français est toujours à la pompe. Il n'est jamais salarié, ouvrier, chômeur, rmiste. Il est à la pompe) trouvait que ça commençait à bien faire, même si les bloqueurs avaient leurs raisons. En quelques années, le numérique a fait valdinguer ce bal des postures.

Economie du futur : êtes-vous techno-optimiste ou techno-sceptique « Qu’est-ce qui a le plus changé le cours de l’histoire ? » interroge Andrew McAfee (@amcafee) sur la scène de USI. La religion ? Les guerres ? Image : la courbe du développement social et de la population qui montre l’impact de l’introduction de la machine à vapeur, utilisée par Andrew McAfee pour asseoir sa démonstration. « Nous sommes les bénéficiaires du 1er âge de la machine, celle qui nous a permis de tirer parti d’une nouvelle puissance physique décuplant notre puissance musculaire ». Image : Andrew McAfee sur la scène d’USI 2016. Pour Andrew McAfee, si tout cela ne s’est pas réalisé, c’est parce que nous avons innové. Pour McAfee, nous sommes entrés dans une période historique étrange, celle de la dématérialisation. Pour McAfee, la consommation brute de ce qui constitue la base de l’économie est en baisse aux Etats-Unis. Dans l’échange qui suit sa présentation, Andrew McAfee, tente de modérer son ode au technosolutionnisme. Image : Daniel Cohen sur la scène de USI 2016.

Algorithmes et responsabilités France Stratégie organisait la semaine dernière une rencontre entre Daniel Le Métayer, directeur de recherche à l’INRIA, coordinateur notamment du projet Capris sur la vie privée (et qui avait été très critique sur la Loi renseignement) et Antoinette Rouvroy, chercheuse au Centre de recherche en information, droit et société (CRIDS), à l’université de Namur, pour discuter des algorithmes et de leurs impacts. Comme souvent, l’enjeu a d’abord été de tenter de cerner de ce dont on parle et ce n’est pas si simple, tant le terme d’algorithme caractérise désormais les boites à tout faire des traitements logiciels. Pour Daniel Le Métayer, les algorithmes sont des procédés de calcul qui recouvrent une grande variété de procédés techniques. Mais plus que les procédés techniques, ce sont leurs effets qui sont importants à comprendre, du fait de leurs impacts sur nos décisions, nos comportements, notre vie quotidienne… et plus encore de leurs effets normatifs. L’ouverture ne suffit pas

Uber's Drivers: Information Asymmetries and Control in Dynamic Work by Alex Rosenblat, Luke Stark Alex Rosenblat Data & Society Research Institute Luke Stark New York University (NYU)October 15, 2015 Abstract: This empirical study explores labor in the on-demand economy using the rideshare service Uber as a case study. Number of Pages in PDF File: 17 Keywords: digital labor, on-demand economy, Uber, interaction design, flexible employment, ridesharing, algorithm, data, middle manager, rating, surge pricing, entrepreneurship, algorithm, predictive scheduling, sharing economy, workplace surveillance

Emoticons and emojis as evidence in court. Photo illustration by Juliana Jiménez. Photo by Deborah Cheramie/Thinkstock. Last spring, a U.S. District Court judge in Michigan was asked to rule on the meaning of “:-P.” Amanda Hess is a David Carr fellow at the New York Times. When people first started making faces with their keyboards, emoticons were perceived as a tool that would help clarify the tone of online texts. I propose … the following character sequence for joke markers: Read it sideways. Fahlman is widely credited with inventing the keyboard-rendered facial expression. What do emoticons mean? The emotional flexibility of emojis is part of what makes the symbols so fun to use. Courts have always had to interpret nonverbal cues, like shrugs and winks, that arise in face-to-face conversations. Meanwhile, a group of Slovenian researchers have been working on building an emotional scale for charting the likely sentiment attached to each little glyph. Often, these are the emoticons that are most heatedly contested in court.

Dominique Cardon : "Nous devons nous armer d’une culture critique des algorithmes" Politique, environnement, médecine... Il ne se passe plus une journée sans que nous n'entrions en interaction avec un algorithme, bien souvent sans même nous en rendre compte. Méconnus, ces rouages façonnent pourtant le Web d'aujourd'hui. Sociologue reconnu pour ses travaux sur les enjeux politiques d'Internet, Dominique Cardon interroge dans son nouvel essai ces algorithmes qui rythment notre quotidien. Pourquoi ouvrir la « boîte noire » des algorithmes ? Dominique Cardon : Il faut « ouvrir la boîte noire » des algorithmes et ne pas se laisser intimider par la complexité de ces technologies, non pas pour en décoder les raffinements statistiques, mais pour comprendre le genre de monde qu’elles fabriquent. Concrètement, comment l'ouvrir ? « Rentrer » dans les algorithmes, c'est comprendre la manière dont cette architecture est façonnée : des gratte-ciels dominateurs et écrasants, un habitat clairsemé autour de petits centres, une ville ségrégée ou fluide, etc... Comment y parvenir ?

"Nous sommes dans l'illusion que le savoir est accessible à tous sur Internet." by nyffa Nov 14

Related: