background preloader

Éthique et I.A.

Facebook Twitter

Facial Recognition Is Accurate, if You’re a White Guy. La CNIL se prononce sur l'éthique des algorithmes et de l'intelligence artificielle. Les algorithmes, des boîtes noires dont les enjeux nous dépassent ?

La CNIL se prononce sur l'éthique des algorithmes et de l'intelligence artificielle

La question se pose aujourd'hui au niveau national. L'intelligence artificielle est-elle sexiste. L'intelligence artificielle (IA) prend-elle suffisamment en compte les femmes dans les usages et dans la conception ?

L'intelligence artificielle est-elle sexiste

C'est l'une des questions posées par Sciences et Avenir à trois experts de l'IA pour un débat à lire dans notre numéro 847, daté septembre 2017 - voir aussi la vidéo ci-dessous. Cette rencontre réunit Bertrand BRAUNSCHWEIG, Directeur du centre de recherche Inria-Saclay, Laurence DEVILLERS, Professeure à Paris-Sorbonne Paris IV, chercheuse au laboratoire LIMSI-CNRS et Jean-Gabriel GANASCIA, Professeur d'informatique à l'UPMC, membre du comité scientifique de l'observatoire B2V des mémoires. "Soyons plus malins avec les machines ! " "La recherche et l'industrie autour de l'intelligence artificielle, du machine learning, de l'analyse du signal, des mathématiques, est un monde plus masculin que féminin, réagit Laurence Devillers. Des caméras intelligentes contre les criminels.

Le programme de reconnaissance faciale du Delawrae s'inscrit dans une utilisation croissante de l'alliance entre l'intelligence artificielle et la vidéo pour lutter contre la criminalité, une tendance qui inquiète les défenseurs de la vie privée et des libertés civiles.

Des caméras intelligentes contre les criminels

Les vidéos seront analysées par des logiciels d'intelligence artificielle capables d'identifier les véhicules grâce à leur plaque d'immatriculation ou d'autres caractéristiques, et donner ainsi "des yeux supplémentaires" aux agents en patrouille, explique David Hinojosa de Coban Technologies, la société qui fournit ce matériel. "Nous aidons les officiers de police à rester concentrés sur leur travail", ajoute-t-il, qualifiant cette nouvelle technologie de "caméra embarquée sous stéroïdes". Ecoles, hôtels, magasins La startup israélienne Briefcam utilise une technologie similaire pour interpréter les séquences de vidéosurveillance. "Ce n'est pas seulement un gain de temps. Politique Fiction – Nos voies/x – Design fiction orientée data - Max Mollon. With AI, Your Apple Watch Could Flag Signs of Diabetes. Google Arts & Culture : pourquoi la fonction selfie n'est pas disponible en France.

Google Arts & Culture propose de comparer ses selfies avec des œuvres d’art.

Google Arts & Culture : pourquoi la fonction selfie n'est pas disponible en France

Néanmoins, cette fonctionnalité n’est pas disponible en France et cela pourrait être dû aux règles établies par la Cnil au sujet des données biométriques. Il y a quelques jours, nous vous parlions d’une nouvelle fonctionnalité rigolote disponible sur Google Arts & Culture. En téléversant un selfie sur l’application, celle-ci propose de comparer le visage de l’utilisateur avec un célèbre tableau exposé dans un musée. Cette option a rencontré un grand succès et beaucoup d’internautes se sont amusés à poster leurs résultats souvent très drôles sur les réseaux sociaux.

Google Arts & Culture incite ainsi à découvrir des œuvres d’une manière originale. Filter Bubble : on nous donne à voir ce que nous voulons voir. Eli Pariser a théorisé le concept de la bulle de filtres.

Filter Bubble : on nous donne à voir ce que nous voulons voir

La bulle de filtres[1] ou bulle de filtrage[1] (de l’anglais : filter bubble) est un concept développé par le militant d'Internet Eli Pariser. Selon Pariser, la « bulle de filtres » désigne à la fois le filtrage de l'information qui parvient à l'internaute par différents filtres ; et l'état d'« isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu'il recherche sur Internet résultent d'une personnalisation mise en place à son insu. Selon cette théorie, des algorithmes sélectionnent « discrètement » les contenus visibles par chaque internaute, en s'appuyant sur différentes données collectées sur lui. Chaque internaute accéderait à une version significativement différente du web. Il serait installé dans une « bulle » unique, optimisée pour sa personnalité supposée. Enjeux[modifier | modifier le code] Effets psychosociaux supposés[modifier | modifier le code] Twitter[modifier | modifier le code]

« Demain, nos robots devront avoir une dimension morale » Laurence Devilliers. Dans cette interview, Laurence Devillers explique pourquoi elle croit en la capacité des « robots sociaux » à jouer demain un rôle important dans l’accompagnement de patients et de personnes âgées, en particulier atteintes de la maladie d’Alzheimer. La chercheuse en intelligence artificielle, apprentissage machine et modélisation des émotions et interaction homme-machine au CNRS-LIMSI, auteure du livre Des Robots et des hommes - Mythes, fantasmes et réalité (Plon, 2017), insiste dans cet entretien sur la nécessité que nous aurons demain à rendre ces machines « morales ». En partie accessible en vidéo, l'interview est issue du numéro 2 de la revue Visions solidaires pour demain, disponible en librairie, et focalisée sur les enjeux de « solidarité à l’ère numérique ».

Solidarum : Quel regard portez-vous sur l’apport des nouvelles technologies dans le soin au patient, et ce dans tous les sens du mot soin ? « Lily m’accompagne, m’informe, me stimule et me donne de l’énergie. C’est exact.