background preloader

Données et algorithmes

Facebook Twitter

Algorithmic paranoia and the convivial alternative - Dan McQuillan, 2016. Io9.gizmodo. « Ce que les algorithmes voient est conditionné par l'argent » Peut-on désalgorithmiser le monde ? Passer d'un monde contrôlé par une trentaine d'algorithmes (10 + 10 + 10) à un monde sans algorithmes. Ou à tout le moins arriver à habiter le réel, dans la sphère intime, personnelle, dans notre travail, dans nos loisirs, en parvenant à s'extraire de toute forme de guidance et/ou de déterminisme algorithmique que nous n'aurions pas choisi, dont nous ne serions pas conscients et dont l'intentionnalité réelle nous demeurerait obscure.

Éviter qu'un jour peut-être la dysalgorithmie, ce "trouble de résistance algorithmique où le sujet fait preuve d'un comportement ou d'opinions non-calculables", ne devienne une pathologie reconnue. Sauf à vivre dans une déconnexion totale, est-il possible de s'abstraire de ces formes de guidage algorithmique aussi sourdes que constantes ? Plusieurs phénomènes sont en train de se produire et concourent à créer un moment inédit à l'échelle de l'emprise que les GAFA ont sur l'écosystème numérique depuis une quinzaine d'années. Mais les usages ont changé. Opinion | An Algorithm Isn’t Always the Answer. This is How The Instagram Algorithm Works in 2018. How does the Instagram algorithm work? In 2018, the Instagram algorithm has already seen a ton of new changes (and sparked a lot of confusion and frustration)! This year, the Instagram algorithm seems to be making it even harder than ever for your posts to be seen. And despite the backlash, there’s no sign of a return to the chronological feed, and there’s a whole new set of rules to play by.

So how do we keep up with all these Instagram algorithm changes? In the following post, we cover everything you need to know about how the Instagram algorithm works in 2018, and how you can hack the algorithm to get your posts seen! C There’s no question about it, Instagram posts are no longer getting the amount of exposure they used to. This can be extremely frustrating for users who aren’t seeing their friends and family’s posts, businesses hoping to reach new customers, and even worse for influencers whose business model depends on their followers seeing their content. Ready to get posting? Written By. C & F Éditions. Il fallait un amoureux du web et des médias sociaux pour décrypter les enjeux culturels, relationnels et démocratiques de nos usages numériques. Olivier Ertzscheid met en lumière les effets d'échelle, l'émergence de géants aux appétits insatiables. En concentrant toutes nos activités numériques sur quelques plateformes, nous avons fait naître des acteurs mondiaux qui s'épanouissent sans contrôle.

Nos échanges, nos relations, notre sociabilité vont nourrir des algorithmes pour classer, organiser et finalement décider pour nous de ce qu'il nous faut voir. Quelle loyauté attendre des algorithmes qui se nourrissent de nos traces pour mieux alimenter l'influence publicitaire ou politique ? Comment construire des médias sociaux et un accès indépendant à l'information qui ne seraient pas soumis aux ambitions des grands acteurs économiques du web ? Pourquoi n'y a-t-il pas de bouton « sauver le monde » ? Par l'auteur du blog Affordance.info. « Social Credit System » : la gouvernementalité algorithmique à la chinoise.

Avec le « Social credit system », il semblerait que la Chine ait opté pour le pire des deux mondes : l’écrasement de l’individu par la masse, relent d’un système communiste dévoyé, d’un côté, et l’absolutisme technologique individualiste, rejeton d’un système capitaliste décomplexé, de l’autre. Voilà déjà quelques années qu’on entend parler du Léviathan numérique chinois qui attribue aux citoyens – volontaires pour le moment – une note à partir de leurs habitudes d’achat, des contenus postés sur les réseaux sociaux ou toute autre donnée jugée utile.

Selon Wired, les mieux notés bénéficient d’avantages en nature (facilité d’accès à un crédit, sécurité sociale, position hiérarchique), les autres sont littéralement punis (interdiction d’accès à des restaurants, débit de connexion internet réduit, etc.). C’est ici une parfaite illustration du concept de « gouvernementalité algorithmique » tel que proposé par l’équipe de recherche d’Antoinette Rouvroy et de Thomas Berns. Pourquoi mes données personnelles ne peuvent pas être à vendre ! Permettre à chacun de vendre ses données personnelles a toujours été une réponse simpliste, plusieurs fois avancée, toujours repoussée. Quand on entend un minimum ce que sont les données personnelles, on comprendra très vite qu’en fait, cette marchandisation des données, cette « patrimonisation » comme on l’appelle, est impossible. La dernière tribune en date, qui fait suite au rapport du think tank libéral Génération Libre, estime que la meilleure réponse à l’exploitation de nos données personnelles consiste à en laisser la maîtrise à chacun leur permettant d’en vendre des accès comme bons leur semble.

C’est bien mal comprendre ce que sont les données personnelles. Il est donc en fait impossible de ranger les données personnelles sous le sceau de la propriété. Hubert Guillaud Pour aller plus loin : L’austérité est un algorithme. Facebook : des interactions significatives, vraiment ? Facebook a donc décidé à nouveau de changer ses règles algorithmiques.

A nouveau, comme si ce changement unilatéral du fonctionnement algorithmique allait résoudre par magie les problèmes que connaît le géant des réseaux sociaux. Désormais, « il priorisera les messages qui qui suscitent des conversations et des interactions significatives entre les gens », comme l’a expliqué l’entreprise. Ou, comme l’a souligné Mark Zuckerberg, FB va pousser les utilisateurs à être plus réactifs, à avoir « des interactions sociales plus significatives » – pour leur propre bien, bien sûr. Mais n’était-ce pas déjà ce qui nous avait été promis la dernière fois ? … Nous continuons à être enfermés « dans la tête de Mark Zuckerberg »… comme les cobayes permanents d’une expérimentation infinie, qui, nous promet sans cesse un monde de félicités sociales, toujours remises à plus tard.

De la tautologie de la signification Pour produire de la signification, de l’authenticité, FB doit créer de la rareté. Automatiser les inégalités. Dans une récente tribune pour le New York Times, l’avocate Elisabeth Mason (@elismason1), directrice du Laboratoire pauvreté et technologie qui dépend du Centre sur la pauvreté et l’inégalité de Stanford (@CenterPovlneq) soulignait que le Big data et l’intelligence artificielle étaient amenés à être des outils puissants pour lutter contre la pauvreté. Les grands ensembles de données peuvent désormais être exploités pour mieux prédire l’efficacité des programmes d’aides et les évaluer. « Le big data promet quelque chose proche d’une évaluation impartiale, sans idéologie, de l’efficacité des programmes sociaux », explique-t-elle en rêvant d’une société parfaitement méritocratique, tout entière fondée sur la « preuve de ce qui marche » (Evidence-based policymaking).

Vous avez été signalés ! Reste que bien peu de personnes s’intéressent à ce que signifie d’être signalés par ces programmes et les catastrophes individuelles que cela engendre. Des hospices… aux hospices numériques. Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle.

L’irruption dans nos vies quotidiennes des algorithmes et de l’intelligence artificielle fait l’objet d’une attention publique soutenue, depuis que quelques cas emblématiques (APB, rôle des réseaux sociaux dans les présidentielles américaines etc.) ont marqué les citoyens, ici en France ou à l’étranger. A l’heure où se construisent les positions française et européenne sur l’intelligence artificielle, ce rapport a pour but de construire un panorama des enjeux éthiques qu’ils soulèvent.

Un débat public innovant sur les algorithmes et l’intelligence artificielle Chargée par loi pour une République numérique de mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies, la CNIL s’est naturellement tournée vers le thème des algorithmes à l’heure de l’intelligence artificielle. Pour Isabelle Falque-Pierrotin, Présidente de la CNIL : Quelles réponses éthiques au développement des algorithmes et de l’intelligence artificielle ?

Réguler par la donnée ? L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une initiative de la Harvard Kennedy School pour promouvoir une ville réactive aux données.

D’une régulation par l’autorisation à une régulation par la responsabilité ? Pour lui, il est nécessaire de passer d’une régulation par la permission (et son corollaire, l’interdiction) à une régulation par la responsabilité informée par la donnée. Les plateformes du web ne sont pas tant des plateformes que des « moteurs pour la régulation », expliquait-il au Personal Democracy Forum de 2016 (vidéo, présentation), et ces moteurs de régulation vont directement impacter la manière dont le secteur public pratique la régulation. Hubert Guillaud. Cédric Villani : « Ce qui a “buggé” dans APB, ce n’est pas le logiciel, mais bien l’Etat » Pour le député LRM, les pouvoirs publics devront tirer les leçons des déboires du logiciel d’admission post-bac. A l’avenir, il leur faudra prendre leurs responsabilités dans la mise en œuvre des algorithmes. LE MONDE | • Mis à jour le | Par Cédric Villani (Député (LRM) de l’Essonne, membre de l’Académie des sciences, premier vice-président de l'Office parlementaire d'évaluation des ch...

Tribune. « Bugs d’Etat ». La « une » d’un grand quotidien français, il y a quelques semaines, dénonçait sans pitié Louvois [le logiciel de paie de l’armée française], APB [Admission post bac] et la PNIJ [Plateforme nationale des interceptions judiciaires] comme trois exemples de logiciels « dysfonctionnels » qui « font planter » les administrations. Mais tous ces cas sont différents, et l’exemple de l’APB est bien plus gênant qu’il n’y paraît. Riche d’enseignements. Réinventer les interfaces. La semaine dernière, dans « Réinventer la programmation », nous avons tenté de montre que la manière même de produire du code était en train d’évoluer, que nous passions de l’écriture artisanale à des modèles de programmation qui permettent une compréhension plus globale de ce que le code accomplit.

Que la complexité à laquelle le code parvenait nécessitait de nouvelles approches, de nouvelles modalités de conception. De nouveaux outils ouvrent des possibilités pour faciliter cette relation, pour transformer le dialogue entre le code et ce qu’il produit, entre codeurs et codés. De nouvelles formes de médiation entre le code et les développeurs ouvrent la voie à une autre forme de médiation entre les données, les systèmes, les traitements et ceux qu’ils calculent. Une évolution qui, via les interfaces, impacte directement notre rapport aux données et aux traitements qu’ils produisent. Des datavisualisations aux « explications à explorer » De la complexité toujours plus accessible.

Réinventer la programmation. La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers). Des limites critiques des systèmes logiciels L’article de James Somers débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature.

. « Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Programmer autrement ? Instagram. Les algorithmes comme construction sociale : rencontre avec Cathy O’Neil. Acteurs publics. Le code en confession. Acteurs publics.