background preloader

Surveillance Ethique

Facebook Twitter

Pour une intelligence artificielle de confiance au profit de la sécurité. Alors que le rêve de voler figure dans la conscience de tous sous les traits d’Icare, cette figure mythologique qui remonte à la Grèce antique, nous oublions bien souvent que le rêve, de créer une machine qui pense, est tout aussi ancien.

Pour une intelligence artificielle de confiance au profit de la sécurité

Talos ou Pandore peuvent parfaitement être considérées comme les premières représentations de vies artificielles. Ce rêve qui relevait de la mythologie prend forme et peut être vie, aujourd’hui, sous le qualificatif d’intelligence artificielle (IA). C’est en 1956 , lors de la conférence de Darmouth qu’ apparaît ainsi nommée par le mathématicien John Mac Carthy [1] une matière qui a, depuis, connu de nombreux rebondissements. Depuis une dizaine d’années, l’IA connaît un essor considérable dû notamment au développement de nouvelles méthodes (apprentissage profond), à la disponibilité des données toujours plus massives et à la célérité des calculs.

L’IA, un mystère mathématique, une solution pragmatique. Tribune : comment faire évoluer la réflexion éthique sur l’IA. Dans cette tribune, Angela Minzoni nous explique pourquoi le mimétisme entre humains et intelligence artificielle (volonté de véhiculer une ressemblance entre les facultés humaines et celles attribuées aux algorithmes) s’avère contre-productif.

Tribune : comment faire évoluer la réflexion éthique sur l’IA

Au nom de l’éthique de conception et d’utilisation des algorithmes, une clarification s’impose : commençons par la création d’une sémantique (registre propre d’expressions) pour qualifier les algorithmes de l’IA et leurs résultats et amorçons l’abandon de l’imitation. Plaidoyer pour une éthique en chair et en os Les initiatives se multiplient pour tenter d’introduire une dimension éthique dans la conception, la production et l’utilisation des algorithmes et des données liées à l’IA, notamment dans des domaines jugés sensibles tels que la santé, la justice ou la sûreté.

Il s’agirait même d’en faire le pivot d’une marque européenne pour ce type de technologie. Aux sources d’un malentendu qui perdure Un design qui fait la différence Angela Minzoni. Implants cérébraux : la nature humaine remise en question. Les implants cérébraux peuvent être définis comme des dispositifs artificiels d’interface avec le cerveau.

Implants cérébraux : la nature humaine remise en question

Ils permettent notamment de proposer des solutions de suppléance artificielle dans le cas de fonctions perdues, comme la parole. Ces avancées technologiques se révèlent particulièrement intéressantes, par exemple, pour offrir des nouveaux modes de communication à des individus atteints de paralysie sévère. Mais si l’aide que promet cette technologie semble précieuse, elle suscite néanmoins un questionnement éthique qu’il est essentiel de saisir, alors même que la technologie se développe.

La France veut développer des « soldats augmentés » Au mois de janvier 2020, le Comité d’éthique de la Défense a été saisi par la ministre des Armées d’une demande d’avis sur le « soldat augmenté ».

La France veut développer des « soldats augmentés »

Le Comité a ainsi rédigé un rapport énonçant les conditions dans lesquelles les recherches sur les implants ou autres technologies dédiées à l’amélioration des performances devaient être menées. Les détails de ce rapport ont été publiés ce mardi 8 décembre. Comme le souligne ce rapport, l’être humain cherche depuis longtemps à accroître ses capacités physiques et cognitives pour combattre (et même simplement dans un contexte plus personnel…). Une IA doit-elle nous dire quand on ne peut pas lui faire confiance ? Des chercheurs du MIT ont établi un nouveau modèle qui permet de connaître immédiatement le niveau de confiance d'un réseau de neurones artificiel dans une prédiction.

Une IA doit-elle nous dire quand on ne peut pas lui faire confiance ?

Les intelligences artificielles sont de plus en plus déployées dans une multitude de domaines où elles accompagnent des décisions. Et ces décisions peuvent affecter des êtres humains. Sur la base de ce constat, une équipe de recherche du MIT s’est penchée sur une méthode de deep learning visant à entraîner les IA à reconnaître et signaler « elles-mêmes » leurs limites. Le document de présentation du modèle est disponible en ligne depuis fin novembre 2020. « Nous avons besoin non seulement d’avoir des modèles de haute performance, mais de comprendre quand l’on ne peut pas avoir confiance en ces modèles », a expliqué sur le site du MIT, Alexander Amini, l’un des ingénieurs travaillant sur le projet, le 20 novembre.

Peut-on faire confiance aux IA ? Les algorithmes d’intelligence artificielle (IA) ont commencé à assister les humains dans des tâches courantes : conduire une voiture, conseiller un client, orienter un élève vers une filière d’enseignement supérieur, décider d’octroyer un prêt.

Peut-on faire confiance aux IA ?

Le Règlement Général sur la Protection des Données (RGPD) autorise ainsi la « prise de décisions individuelles automatisée », à condition qu’elle ne produise pas des « effets juridiques » ou affecte « de manière significative » la personne concernée. Dans toute autre situation, un algorithme d’IA ne peut émettre qu’un avis à destination d’un humain chargé de prendre la décision. Explicabilité. Comment allier éthique et IA dans le secteur de la formation ? Les algorithmes n’ont pas de limites.

Comment allier éthique et IA dans le secteur de la formation ?

Il appartient donc aux humains de veiller à l’éthique autour de l’intelligence artificielle (IA), et de poser des principes qui protègeront les intérêts des apprenants. Découvrez nos réponses aux 3 risques majeurs de l’IA dans la formation. The International Review of Information Ethics (IRIE) Tout savoir sur le respect de la vie privée d’un appareil IoT grâce à une étiquette. À l’instar des étiquettes nutritionnelles sur les produits alimentaires, les appareils IoT pourraient également bénéficier des mêmes informations.

Tout savoir sur le respect de la vie privée d’un appareil IoT grâce à une étiquette

Applications de traçage : il faut réfléchir à la notion de consentement. Un débat fait rage depuis que les membres de l’Institut québécois d’intelligence artificielle (Mila) ont annoncé qu’ils sont sur le point de lancer une application de traçage contre le coronavirus.

Applications de traçage : il faut réfléchir à la notion de consentement

S’ils ont été à proximité d’une personne souffrant du virus, les utilisateurs de COVI – le nom donné à l’application de Mila – recevront des recommandations qui leur permettront de mieux planifier leurs interactions sociales ou encore de se faire tester. Puisque l’application collectera des données personnelles sur ses utilisateurs, certains journalistes et universitaires s’inquiètent néanmoins du fait qu’elle risque de bafouer le droit à la vie privée de ses utilisateurs, et même participer du « capitalisme de surveillance ». Le 22 mai dernier, la chroniqueuse Aurélie Lanctôt attirait notre attention sur ce concept popularisé par Shoshana Zuboff, professeure émérite à la Harvard Business School. Le pari du tournant éthique. L'intelligence artificielle éthique, le difficile chantier qui attend l'UE. L'Union européenne a mis beaucoup l'accent sur l'éthique dans son Livre blanc sur l'intelligence artificielle, une ambition louable mais dont la mise en musique ne sera pas facile, avertissent des experts.

L'intelligence artificielle éthique, le difficile chantier qui attend l'UE

Le Livre blanc, publié le 19 février, insiste d'abord sur l'importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations. Bruxelles recommande que les futurs systèmes d'intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets. Mais certains experts et acteurs du secteur s'inquiètent déjà de cette emphase concernant les valeurs et l'éthique. "L'éthique est utilisée par les pouvoirs en place", grandes entreprises ou institutions, "comme un moyen de parler d'intelligence artificielle sans en faire vraiment. . - Les valeurs, arme stratégique ? Intégrer du hasard dans les algorithmes de l’IA ? – DAILY SCIENCE. L’avenir de la robotique sociale : assistance ou surveillance ? Si les robots dits sociaux sont encore loin d’accompagner notre quotidien, on peut d’ores et déjà s’interroger sur le projet dont ils sont porteurs.

A l’heure où les pratiques numériques confortent plus que jamais l’analyse deleuzienne sur les sociétés de contrôle, la tentation est grande pour la robotique sociale, encore très malléable, de chercher son modèle économique du côté d’un capitalisme cognitif datavore et peu scrupuleux. Vers un « dataterminisme » Comme le révèlent les faillites dans le secteur, le robot social peine à trouver sa raison d’être et son modèle économique en dehors des laboratoires.

L’innovation étant aujourd’hui en grande partie darwiniste, le marché fait face à des offres de « solutions » pour lesquelles il n’existe pas encore de problème. Clearview, l'application capable de tout savoir de votre vie privée à partir d'une image. Digne de 1984, le chef d'oeuvre de George Orwell, ou d'un épisode de Black Mirror, cette application tire profit de l'intelligence artificielle pour identifier des personnes à partir d'une simple photo ou d'une vidéo. Adresse postale, email, nom, prénom... Cette application utilisée par le FBI sait tout sur tout le monde. Et elle pourrait bientôt être disponible pour le grand public. Bientôt, il suffira de prendre une photo d'un inconnu pour tout savoir sur lui : son nom, ses comptes sur les réseaux sociaux, voire même son adresse et bien d'autres détails personnels. L’immortalité numérique, entre fantasme et business.

Intitulé « Bientôt de retour », l’épisode relate la manière dont une jeune femme, endeuillée par la perte de son compagnon, recourt à un programme encore en phase de développement pour garder le contact avec un mort : un logiciel créant un simulacre de la personne défunte à partir de ses publications sur Internet. Naturellement, plus le nombre de données appartenant au défunt (activités sur les réseaux sociaux, messages privés, etc.) auxquelles le logiciel a accès est important, plus il peut créer un personnage virtuel ressemblant à l’original. Et la jeune femme va peu à peu s’habituer à ces contacts virtuels avec une personnalité fictive élaborée à partir des traces numériques de son compagnon. La traque des fraudeurs fiscaux sur internet validée sous conditions.

PARIS (Reuters) - Le Conseil constitutionnel annonce vendredi avoir partiellement censuré l'article de la loi de finances 2020 instaurant pour trois ans une "traque" des fraudeurs fiscaux présumés sur les réseaux sociaux, mais autorise son expérimentation sous réserve de strictes garanties sur le respect de la vie privée. Le gouvernement veut expérimenter un algorithme d’intelligence artificielle (IA) lui permettant de repérer de fausses domiciliations fiscales ou du commerce illicite, notamment, sur internet. Cette initiative a suscité les inquiétudes de nombreux députés, qui avaient saisi le Conseil constitutionnel, et de la Commission nationale de l’informatique et des libertés (Cnil), qui s'émeut de potentielles atteintes au respect de la vie privée.

Dans sa décision, le Conseil constitutionnel estime que "les dispositions contestées portent atteinte au droit au respect de la vie privée". La CNIL se prononce sur l'éthique des algorithmes et de l'intelligence artificielle. Les algorithmes, des boîtes noires dont les enjeux nous dépassent ? La question se pose aujourd'hui au niveau national. Pas plus tard qu'en mai 2017, ils ont joué un rôle crucial dans l'élection présidentielle française, sous l'angle du big data et des réseaux sociaux.

Ils interviennent aussi dans l'orientation de milliers de bacheliers, ainsi que l'a montré l'emblématique exemple d'Admission Post Bac (APB) en octobre 2016. Intelligence artificielle : les 9 scénarios qui inquiètent les experts. Enquête au cœur de l’intelligence artificielle, ses promesses et ses périls. L’être humain est-il menacé par la technologie ? La machine risque-t-elle à terme de le dominer ? Notre dossier spécial pour faire le tri entre fantasmes et réalité. LE MONDE | • Mis à jour le | Par Morgane Tual L’intelligence artificielle (IA) est à la mode.

Rien que dans Le Monde et sur ­Lemonde.fr, le sujet a été évoqué dans 200 articles en 2017, soit presque 15 % de plus qu’en 2016. Il reste à savoir ce que cache ce terme. Pourquoi l’intelligence artificielle risque de continuer à tuer. Des neurones artificiels pour des machines profondément intelligentes. [FranceCulture] Projet d’article 57 : les prémices d’une surveillance de masse. […] La Quadrature du Net alerte sur les risques d’une surveillance de masse en France.

L’association vient de lancer un appel et demande au gouvernement de renoncer à l’article 57 du Projet de loi de finances 2020. Cet article 57 permettra à l’administration fiscale et aux douanes de surveiller en masse les réseaux sociaux pour lutter contre la fraude fiscale. L’intelligence artificielle s’insinue dans l’analyse criminelle.

Scènes de crime 1|6. [Xil'Fast] Faut-il faire la morale aux Intelligences Artificielles ? (avec conclusion) Dans les méandres de l'intelligence artificielle, entre angoisses, espoirs et recommandations. L’IA à la recherche de règles éthiques. L'intelligence artificielle pour débusquer les regards indiscrets jetés sur nos smartphones. Deux ingénieurs de Google présenteront prochainement les détails de leur dernier projet : un système utilisant la caméra frontale d'un smartphone et l'intelligence artificielle pour empêcher qu'un petit malin ne profite d'un moment d'inattention pour jeter un oeil à l'écran de nos smartphones.

Cette solution, qui pourrait un jour être intégrée aux appareils de Google, ou plus généralement aux smartphones sous Android, analyse en effet en permanence ce qui se passe devant la caméra, et prévient instantanément l'utilisateur en cas de regard jeté subrepticement par-dessus l'épaule. L'application active est alors immédiatement remplacée par un retour vidéo de la caméra frontale, et le filou encerclé par des marqueurs rouge, doublés d'une belle gerbe arc-en-ciel.

Via. Intelligence artificielle : les risques d'une utilisation malveillante. O21. Faut-il craindre l’intelligence artificielle ? A l’avenir, les métiers devraient être davantage transformés que remplacés par les machines. Décryptage, avant nos conférences O21 / s’orienter au 21e siècle à Paris, samedi 17 et dimanche 18 mars. « Comment l’intelligence artificielle va vous priver de liberté ! »… Assistants vocaux : « Nous ne pouvons confier nos vies à des machines »

Transformations. Les assistants vocaux débarquent en France avec Google Home, Echo (Amazon) et HomePod (Apple). Aux Etats-Unis, ils auraient déjà conquis 20 % du marché des requêtes sur Internet. Orange et Deutsche Telekom annoncent un produit commun, Djingo, pour cette année. Loi bioéthique : quelle sera la place des neurosciences dans le monde de demain. Une AI fait tourner en bourrique les cyber-arnaqueurs. Cette IA va empêcher que votre visage soit reconnaissable dans les collectes d'images. Intelligence artificielle : des problèmes éthiques très concrets… et des réponses encore balbutiantes. Pour une « éthique » pluraliste « de l’intelligence artificielle » Cette entreprise belge implante une puce sous la peau de ses employés.

Digital Democracy : des bots veillent sur la transparence des élus américains - Tech. Cette IA révolutionnaire est capable de lire dans vos pensées et de parler à votre place. Surveillance : le réseau français « intelligent » d’identification par caméras arrive.. Des bouées connectées par satellite pour surveiller l'océan indien. Intelligence artificielle et éthique.