background preloader

Limiter le pouvoir des algorithmes

Limiter le pouvoir des algorithmes
Surveiller les algorithmes ne suffira pas. Il va bien falloir imaginer les encadrer. Deux des chercheurs du sujet ont récemment fait des propositions en ce sens : Albert-László Barabási et Kate Crawford. La fouille de données peut être une arme Pour le physicien Albert-László Barabási (Wikipédia, @barabasi), le spécialiste de l’analyse des réseaux, la façon dont la NSA recueille les données personnelles des Américains a brisé le modèle traditionnel qui lie la science et la société, estime-t-il dans Politico. Oui, les Big Data sont un saint Graal : “ils promettent de mettre à jour les lois mathématiques qui régissent la société”. La non-prolifération : une solution ? Et Barabási d’appeler les chercheurs à faire un usage éthique de leur savoir, pour tenter de réparer les dommages déjà faits. Pour cela, il faut tisser une nouvelle alliance avec la société en amendant la Déclaration des droits de l’homme par un droit de propriété sur ses données et un accès sûr. Hubert Guillaud

Facebook développe la reconnaissance faciale... de dos Après la reconnaissance vocale, la biométrie et son cortège (empreinte digitale, ADN, iris...), nous pourrons être reconnus même visage caché. Une technique qui devrait surtout servir à (encore plus de) la surveillance. Capture d’écran du film « Mon nom est personne » (1973) (Tonino Valerii) Au Far-West, dans les westerns il y avait une règle d’or, un code de bonne conduite, un code d’honneur : on ne tire pas sur les gens de dos. « D’accord, Nevada était mon frère, mais c’était aussi un salaud de la plus belle espèce. Comme on n’arrête pas le progrès, après avoir développé ceux déjà redoutablement efficaces de la reconnaissance faciale, voici que Facebook annonce avoir mis au point un nouvel algorithme capable de vous reconnaître sur une photo ou dans une vidéo même si vous êtes de profil ou ... de dos. La reconnaissance faciale de dos Making of Bientôt, Facebook pourra vous reconnaître même si votre visage est dissimulé. Image extraite de l’étude de Facebook (DR) Who’s next ?

Why Big Data Is Not Truth Photo The word “data” connotes fixed numbers inside hard grids of information, and as a result, it is easily mistaken for fact. But including bad product introductions and wars, we have many examples of bad data causing big mistakes. Big Data raises bigger issues. The term suggests assembling many facts to create greater, previously unseen truths. It suggests the certainty of math. That promise of certainty has been a hallmark of the technology industry for decades. Kate Crawford, a researcher at Microsoft Research, calls the problem “Big Data fundamentalism — the idea with larger data sets, we get closer to objective truth.” Myth 1: Big Data is New In 1997, there was a paper that discussed the difficulty of visualizing Big Data, and in 1999, a paper that discussed the problems of gaining insight from the numbers in Big Data. “But now it’s reaching us in new ways,” because of the scale and prevalence of Big Data, Ms. Myth 2: Big Data Is Objective Myth 3: Big Data Doesn’t Discriminate

L'algorithme qui battait les historiens de l'art Une intelligence artificielle plus avisée qu'un historien de l'art ? C'est ce que Babak Saleh, chercheur en science des systèmes informatiques et ses confrères de l'Université de Rutgers (New Jersey) ont démontré en dévoilant les résultats de leur algorithme configuré pour comparer les oeuvres et déterminer leurs influences. Explications avec Medium. Classifier les oeuvres d'art est une activité complexe, et bien loin de ce que l'on pourrait attendre d'une machine : styles, genres, périodes, influences et liens sont autant de critères à prendre en compte pour établir les connexions nécessaires à une analyse. Pour ce faire, ils se sont appuyés sur une nouvelle méthode de classification des images, générée au Dorthmouth College (New Hampshire) et au centre de recherche Microsoft de Cambridge (Grande-Bretagne) qui s'établit à partir de concepts visuels, dénommés classèmes. Pour en savoir plus, c'est ici dans l'article de Medium, ou ici dans Slate.

"Face à la gouvernementalité algorithmique, repenser le sujet de droit " by Antoinette Rouvroy Antoinette Rouvroy, National Fund for Scientific Research (FNRS) and Information Technology & Law Research Centre, University of Namur (CRID) Abstract I - Produire la réalité à même le monde : une nouvelle stratégie de gestion de l'incertitude. 1.Gouvernementalité algorithmique et capitalisme. 2.Mise en (n)ombres de la vie même. II - La gouvernementalité algorithmique et le comportementalisme numérique, au-delà de la gouvernementalité néolibérale: des dispositifs qui dispensent. 1. 2. 3. 4. III- L’éprouvante inopérationnalité du droit comme occasion de surgissement du sujet de droit comme puissance. 1. 2. IV- Ressources pour une critique de la rationalité algorithmique : éloge du commun. 1. 2. « Il faut organiser le pessimisme. » V-Envoi :Raconter pour suspendre. La gouvernementalité algorithmique y est explorée d'une manière qui combine trois types d'enjeux étroitement imbriqués: 1) les enjeux sémiotiques et épistémologiques (à quel type de "savoir" donne donc lieu l'"intelligence des données"?)

Thymio II dans les écoles - Thymio & Aseba Ce petit robot est très bien adapté à l'usage à l'école. Il est polyvalent est peut-être utilisé autant dans les petites classes comme outils de découverte des sciences et de la technologie qu'avec les plus grands pour découvrir la programmation en tant que tel. Pour les tout petits Dès les premières classes, Thymio permet de découvrir des notions comme la logique et renforce la démarche scientifique et le raisonnement hypothético-déductif. De 4 à 6 ans, les enfants peuvent découvrir ces notions en jouant avec les comportements pré-programmés du robot sans avoir besoin d'autre chose que le robot lui-même. Des kits pédagogiques sont en création, notamment via le projet Thool, et permettent d'avoir une activité complète utilisant les robots sans que l'enseignant-e ait besoin de connaissances en programmation ou en robotique. Pour les petits Dès l'âge de 6 ans, il est possible d'accéder à la programmation grâce au VPL (pour Visual Programming Language). Pour les plus grands Pour les autres

Ricochets - Big Data : la Pythie postmoderne ? En ces temps post-modernes et où les mythes d’antan ne cessent de se rappeler à notre bon souvenir, il est de bon ton de se rappeler de l’auguste distinction de Cicéron*. Celui-ci avait en son temps décrit deux branches de divination, instituant ainsi une vraie différence entre ces deux « arts du pronostic » : la voyance et la mantique. Là où la voyance est naturelle, basée sur les intuitions, les ressentis, la mantique est quant à elle assistée par tous les outils possibles à disposition comme l’étude des astres et des étoiles, la cartomancie ou encore des entrailles d'animaux. Parmi les plus célèbres oracles, la figure de la Pythie a toujours marqué les esprits. Dans le temple de Delphes, celle-ci était initialement choisie comme une frêle jeune fille, choisie pour sa beauté, son jeune âge, sa virginité et sa chasteté. Loin de ces interdits, mais pouvant bientôt compter au rang des sciences de la prédiction, il y a aujourd’hui la Big Data. Thomas Jamet – Moxie – Président @Tomnever

Passerelle - Porte des Landes What is Personal Data and How Much Personal Data Exists? In 1995, the European Union introduced privacy legislation that defined “personal data” as any information that could identify a person, directly or indirectly. The legislators were apparently thinking of things like documents with an identification number, and they wanted them protected just as if they carried your name. Today, that definition encompasses far more information than those European legislators could ever have imagined—easily more than all the bits and bytes in the entire world when they wrote their law 18 years ago. Here’s what happened. First, the amount of data created each year has grown exponentially: it reached 2.8 zettabytes in 2012, a number that’s as gigantic as it sounds, and will double again by 2015, according to the consultancy IDC. Of that, about three-quarters is generated by individuals as they create and move digital files. Much of this data is invisible to people and seems impersonal. We’re well down this path already.

Les Big Data sont au coeur de notre quotidien. Comme l'a révélé les affaires récentes d'espionnage numérique, les fouille de données peuvent etre une armé pour qui sait comprendre, analyser et traiter ces données. Si les Big Data n'utilisent pas les IPI, elles se concentrent avant tout sur une analyse pointue des réseaux sociaux, associée à une interprétation comportementale pour définir un modèle prédictif. Ce traitement avancé des données personnelles des internautes peut entrainer des conséquences concrètes dans leur vie quotidienne (refus de pret bancaire, de souscription d'assurance, etc...).
Pour lutter contre ce phénomène, différentes pistes sont envisagées. Tout d'abord, le droit pour les internautes de connaitre l'ensemble des procédures de traitement des données qui vont influencer sur sa vie lors d'une décision. Ensuite, la notification aux internautes de l'analyse et du traitement de leurs données. Enfin, construire des techniques de traitement impartial des données. by arsenelapince Dec 8

les approches Big Data utilisent assez peu les IPI, elles préfèrent combiner des techniques d’analyse des réseaux sociaux, d’interprétation des comportements en ligne et de modélisation prédictive pour créer une image intime et détaillée des gens, souvent avec un haut degré de précision. Et les préjudices suite à une mauvaise image, à la critérisation retenue ou aux biais des méthodes existent et peuvent avoir des impacts directs sur l’existence d’une personne : le refus d’un crédit ou d’un bail, une interdiction de prendre l’avion sont autant d’exemples fréquemment avancés. by ryslainemly Oct 11

Les Big Data font porter de nouveaux risques sur la confidentialité des données (les risques de partialité ou de discrimination fondée sur la génération de données personnelles inappropriées, ce que les chercheurs appellent “le préjudice prédictif”) notamment lorsque l’analyse prédictive et la catégorisation sont effectuées à leur insu ou sans leur consentement. Si ce préjudice ne s’inscrit pas dans les frontières classiques de l’invasion de la vie privée, elles sont toujours relatives aux données d’un individu by ryslainemly Oct 11

Related: