background preloader

Intelligence artificielle et éthique internationale

Facebook Twitter

Comment l’Intelligence Artificielle discrimine les personnes âgées… et quelque-part les maltraite. Dans le domaine de la santé, le potentiel de l'Intelligence Artificielle est énorme pour améliorer la qualité des soins mais "l'encodage de stéréotypes, de préjudices ou de discrimination dans l'IA ou leur manifestation dans la façon dont on l'utilise pourrait miner la qualité des soins pour les personnes âgées", souligne l'Organisation mondiale de la santé dans un nouveau mémoire sur le sujet.

L'IA repose sur l'utilisation de vastes bases de données qui sont souvent compilées, partagées et analysées de manière peu transparente. Comme cela a déjà été démontré pour le genre ou l'origine, ces vastes bases de données peuvent être biaisées et reproduire voire amplifier des pratiques âgistes déjà largement répandues dans les systèmes de soins. Elle pointe aussi du doigt les accès aux soins intensifs ou à de l'oxygène décidés sur la base de l'âge, durant les phases les plus critiques de la pandémie de Covid-19. Entre l’IA et les personnages âgées « un énorme fossé numérique » Avec AFP. Comment l’intelligence artificielle reproduit et amplifie le racisme. Les technologies d’intelligence artificielle ne peuvent pas être pensées en dehors de leur contexte social et politique, dans la mesure où elles en sont le produit et le reflet.

Or, différents types de racismes sont malheureusement bien implantés dans la société et reconnus comme tels. Par exemple, la Ligue des Noirs du Québec recense régulièrement des cas de profilage racial de la part des policiers. Les systèmes d’intelligence artificielle (SIA), à l’instar de toute technologie, lorsque déployée dans la société, prennent appui sur un tissu social déjà biaisé, ainsi que sur des rapports de pouvoir inéquitables. Dans le cas des SIA, cependant, ils ne font pas que les reproduire : ils les amplifient. Nous menons actuellement des recherches sur des initiatives numériques de justice sociale qui tendent à renverser certaines inégalités et injustices sociales.

Les différentes étapes menant au racisme et à la discrimination Des réflexions et des modifications de pratiques sont de mise. Quel droit d'auteur pour un comics écrit par une Intelligence artificielle ? « J’ai fait valoir l’idée que nous possédons le droit d’auteur lorsque nous engendrons une œuvre en utilisant l’IA. Je l’ai enregistré comme œuvre d’arts visuels. Mon certificat est arrivé, et j’ai reçu le numéro et la confirmation aujourd’hui qu’il a été approuvé. » Kris Kashtanova a tout balancé sur son compte Instagram le 21 septembre dernier, avec délectation : « Mon ami avocat m’a donné cette idée et j’ai décidé de créer un précédent. » Zarya of the Dawn met en scène un personnage ressemblant sérieusement à l’actrice Zendaya.

En effet, les artistes IA ont recours à des photos de célébrités, car la profusion de ces dernières sur internet offre la matière nécessaire aux différents logiciels de synthèse d’images. Plus l’IA sera nourrie de visuels, plus le rendu sera précis. Zarya of the Dawn. À LIRE: Une IA tire le portrait des héros du Seigneur des Anneaux (au secours !) Pour Zarya of the Dawn, le droit d’auteur a été vérifié par l’United Press International (UPI). Summer Island. "Prompt art", intelligence artificielle et droit d'auteur : guide pratique. Par Betty Jeulin, Avocate. La journée du 26 août 2022 a marqué un tournant dans l’histoire de la création artistique, puisque pour la première fois une œuvre entièrement générée par une intelligence artificielle, en l’occurrence Midjourney, a remporté le premier prix de la Colorado State Fair Fine Arts Competition [1]. Cette victoire a fait polémique, au point de forcer les organisateurs du concours à revoir leurs critères de validation des œuvres pour l’année 2023 [2].

Si cette victoire fait polémique, c’est qu’elle nous invite à trancher la question des droits qui seront accordés à l’intelligence artificielle à l’orée de la systématisation de son développement dans tous les secteurs. À l’instar de Midjourney, les sites DALL-E, NightCafé et Snowpixel proposent d’illustrer les instructions écrites des internautes grâce à une intelligence artificielle et cela porte le nom de « prompt art ». Qui est l’auteur d’une œuvre générée par une intelligence artificielle ?

Intelligence Artificielle : demain, les robots « créatifs » toucheront-ils des royalties ? Les avancées de la robotique et de l’informatique cognitive permettent d’envisager à très court terme une « autonomie » assez large pour les robots ayant accès à une intelligence artificielle (IA), en particulier une autonomie créative. En effet, les IA dotées de facultés d’apprentissage contribuent, et vont contribuer toujours plus au monde des créations, y compris dans des domaines traditionnellement qualifiés d’artistiques, littéraires ou inventifs.

Ainsi, les IA se sont mises à générer des lignes de codes, et ceci correspond à une production intellectuelle, et artistique, qu’elle soit littéraire ou musicale. À titre d’exemples, on peut lire ceux donnés par le site Intelligence artificielle (qui pour le reste se complaît dans l’anthropomorphisme) : amélioration d’images à faible résolution, génération de personnages de jeux vidéo, écriture de morceaux de musique. Pourtant, l’illusion est tenace. Le droit d’auteur en France La production des IA, une œuvre originale ? Intelligence artificielle: normes techniques et droits fondamentaux, un mélange risqué. Le futur règlement européen « AI Act » a pour but la création d’un cadre légal pour l’ensemble des systèmes d’intelligence artificielle (IA), notamment ceux posant des risques importants pour la sûreté ou les droits fondamentaux, comme la non-discrimination, la vie privée, la liberté d’expression ou la dignité humaine.

Dans sa version actuelle, le projet de règlement traite tous ces risques de la même manière. Un marquage CE (pour « conformité européenne », comme celui existant), indiquerait que le système d’IA est jugé suffisamment sûr pour être mis sur le marché, qu’il s’agisse de la sûreté physique ou vis-à-vis des droits fondamentaux. Le texte présenté accorde une grande importance aux normes techniques et aux analyses de risques, espérant pouvoir standardiser les méthodes d’évaluation. Tester la discrimination : pari impossible ?

Mais comment développer des critères techniques neutres autour de jugements de valeur moraux et culturels ? Read more: Peut-on faire confiance aux IA ? La CNCDH s’inquiète de l’impact de l’intelligence artificielle sur les droits fondamentaux. Principale inquiétude de la CNCDH ? L’automatisation galopante d’activités jusque-là réservées à l’être humain et, de là, les « dérives d’une nouvelle gouvernance par les données, ainsi que, plus largement, d’atteintes possiblement majeures aux droits fondamentaux, sans compter son impact croissant sur l’environnement ». « L’intelligence artificielle » étant une appellation floue, la Commission vise en particulier l’apprentissage machine, qui cherche à établir des corrélations entre les informations (phase d’inférence).

Il soulèverait des enjeux inédits, car l’absence d’instructions claires de traitement renvoie à la problématique de responsabilité. Dans « certains cas extrêmes », pointe la CNCDH, les concepteurs sont même « incapables de connaître le modèle de fonctionnement auquel est parvenue la machine pour obtenir ses résultats ». Les inquiétudes de la Commission ne sont pas nouvelles. Face aux risques d’excès, la CNCDH a publié dix-neuf recommandations. Un problème de langage. Intelligence artificielle : un risque pour les droits fondamentaux ? | vie-publique.fr. L'avis de la CNCDH rejoint la proposition de règlement de l'UE sur la nécessité d'interdire certains usages de l'IA considérés comme des menaces pour la protection des droits fondamentaux.

L'Artificial Intelligence Act interdit en particulier : l’utilisation de systèmes “reposant sur des composants subliminaux que les personnes ne peuvent pas percevoir, ou exploitant les fragilités des enfants et des personnes vulnérables en raison de leur âge ou de leurs handicaps physiques ou mentaux" ; la notation sociale ("social scoring") qui consiste, pour les autorités publiques, à évaluer des personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles ; l’utilisation de systèmes d’identification biométrique à distance "en temps réel" (reconnaissance des visages, des empreintes digitales, de la voix...) dans les espaces publics, à des fins répressives.

L’institutionnalisation des normes éthiques dans le domaine de l’intelligence artificielle: une construction sociale à dépasser. Actualité de la régulation internationale de l'intelligence artificielle | Légibase Justice. Le développement spectaculaire des systèmes d’intelligence artificielle (IA) depuis le début des années 2010, via le boom du deep learning, a propulsé cette thématique au cœur de la réflexion juridique. Le mouvement de régulation de l’IA, qui n’a conduit jusqu’à présent qu’à l’adoption d’une pléthore de textes dits « éthiques », passe nécessairement par la production de normes juridiques contraignantes. Dans ce contexte, une attention toute particulière doit être portée à l’activité internationale.

L’OCDE fut la première a adopter un texte général en 2019 (OCDE, Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449), suivie par l’UNESCO en 2021 (UNESCO, Recommandation sur l’éthique de l’intelligence artificielle, SHS/BIO/REC-AIETHICS/2021). Il s’agit néanmoins de règles de droit souple très ouvertes, dont l’invocabilité devant les juridictions nationales ou internationales paraît très improbable. Entre éthique et lois, qui peut gouverner les systèmes d’intelligence artificielle ? Nous avons tous commencé à réaliser que le développement si rapide de l’IA allait vraiment modifier le monde dans lequel nous vivons. L’IA n’est plus seulement une branche de la science informatique, elle s’est échappée des labos de recherche avec le développement des « systèmes d’IA », des « logiciels qui, pour des objectifs définis par l’homme, génèrent des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent » (définition de l’Union européenne).

Les enjeux de la gouvernance de ces systèmes d’IA – avec toutes les nuances de l’éthique, du contrôle, de la régulation et de la réglementation – sont devenus cruciaux, car leur développement est aujourd’hui aux mains de quelques empires numériques comme les Gafa-Natu-Batx… qui sont devenus les maîtres de véritables choix de société sur l’automatisation et sur la « rationalisation » du monde. Une éthique de l’IA ? Les grands principes dans l’impasse Un droit de l’IA ? Éthique de l’Intelligence artificielle | Stratégie nationale pour l'intelligence artificielle. Les attentes des citoyens à l’égard d’une technologie responsable et digne de confiance est un moteur pour les innovateurs et une source de motivation pour les jeunes générations qui s’engagent dans le développement des nouvelles technologies.

Vision Les progrès récents de l’Intelligence artificielle (IA) dans de nombreux domaines – voitures autonomes, reconnaissance d’images, assistants virtuels – et l’influence croissante des algorithmes sur nos vies suscitent des interrogations et font l’objet de débats dans l’espace public. Conjointement avec la stratégie européenne, la France fournit des efforts pour construire l’IA responsable et digne de confiance de demain. C’est à ces conditions que les citoyens s’approprieront ces technologies et que l’innovation respectera et renforcera les droits fondamentaux auxquels notre continent est attaché. Rendront possible l’appropriation de ces technologies par les individus ;Ne seront pas contraintes d’adopter les modèles développés par d’autres pays.

Les enjeux éthiques de l’intelligence artificielle - Affiches Parisiennes. Une voiture autonome devrait-elle tuer un jeune ou un papi ? Le MIT dévoile les résultats de son étude éthique. En 2016, le MIT a lancé un questionnaire nommé « machine morale » pour évaluer les choix éthiques du public si une voiture autonome doit tuer quelqu’un dans un crash inévitable. Deux ans plus tard, les résultats ont fait l’objet d’une étude publiée dans la revue Nature. C’est la version moderne du dilemme du tramway, une expérience de pensée qui vous place devant un choix impossible.

Si vous étiez une voiture autonome, quelle décision prendriez-vous si vous ne pouviez pas éviter un accident mortel inévitable ? Sacrifieriez-vous la ou les personnes se trouvant à bord ? Ou plutôt les piétons ? Baseriez-vous votre décision sur certaines caractéristiques des futures victimes ? Ce sont ces questions qui ont été soumises au public, à travers la « machine morale » proposée sur le site du MIT.

Qui sacrifier en priorité ? Nous avons donc une bonne photographie de ce que pensent les individus sur la conduite à avoir en cas de sacrifice inévitable. Tesla Model 3 intérieur Source : Tesla Source : Volvo. Les enjeux éthiques des véhicules autonomes | Sorbonne Université. En collaboration avec Nelson de Moura, Katherine Evans et Stéphane Chauvier, vous travaillez actuellement sur la prise de décision éthique des véhicules à conduite automatisée (VCA). Racontez-nous l’origine de ce projet ? Raja Chatila : Il y a quatre ans, l’institut Vedecom, qui travaille sur les mobilités durables, m’a contacté pour initier une coopération sur ce sujet.

Il s’agissait de faire collaborer autour de cette question d’éthique des spécialistes en intelligence artificielle (IA) et des philosophes. La porteuse du projet, Ebru Dogan, psychologue et chercheuse chez Védecom, a obtenu un financement de l’Agence nationale de la recherche qui nous a permis de recruter à Sorbonne Université un doctorant en IA, Nelson de Moura, et une doctorante en philosophie, Katherine Evans, dirigée par le professeur Stéphane Chauvier. Grâce à ces échanges pluridisciplinaires, nous avons publié, en novembre dernier, un article sur les enjeux éthiques et algorithmiques que soulève l’arrivée des VCA. Véhicules autonomes, éthique, prévention et… « décision de tuer » La CNPEN reprend à son compte un rapport de la Direction générale des infrastructures, des transports et de la mer (DGITM) qui « souligne que les impacts de l’automatisation des véhicules sur la sécurité routière, sur la fluidité du trafic, sur la dépense énergétique, sur l’efficacité de la chaîne logistique et sur l’accès à la mobilité en particulier en zones rurales, demeurent peu documentés ou comportent de fortes incertitudes ».

Le Comité cite également un rapport allemand qui revenait sur la question du dilemme du choix de la victime en cas d’accident mortel. Le but est évidemment d’éviter autant que possible d’en arriver là, si la protection des personnes passe devant celle des animaux et des biens, ce « traitement ne doit faire aucune distinction entre les personnes et ne pas sacrifier des personnes qui ne sont pas concernées par l’usage des véhicules ». De l’importance de la robustesse technique… et d’un mode dégradé Situation inattendue et « décision de tuer » Vous l’attendiez ?

Armes létales autonomes: de quoi parle-t-on? Le débat entourant le développement d’armes autonomes est biaisé par le caractère anxiogène des arguments. Mais pour pouvoir adopter une position sur le sujet, il faut en comprendre les enjeux précis. C’est ce que nous proposent les chercheurs Raja Chatila et Catherine Tessier. Une fois par mois, retrouvez sur notre site les Inédits du CNRS, des analyses scientifiques originales publiées en partenariat avec Libération.

Les « armes autonomes », quand ce ne sont pas les « robots-tueurs », font l’objet, depuis environ trois ans, de nombreux articles de presse, lettres ouvertes et débats, dont on constate le caractère sensationnel et anxiogène des arguments avancés, ainsi que la quasi-absence d’explications et d’arguments scientifiques et techniques. Depuis 2014, le débat est engagé à l’ONU à Genève, dans le cadre de la Convention sur certaines armes classiques (CCAC), sur la question d’une interdiction ou d’un moratoire sur le développement de telles armes. Chocolatefather/Adobe Stock. L'intelligence artificielle (IA) dans les décisions de justice | vie-publique.fr. Exclusif : le ministère de la Justice renonce à son algorithme DataJust | À la une | Acteurs Publics. L’intelligence artificielle, en peine pour traiter les mots de la justice - AOC media. Angèle Christin : « Les méthodes ethnographiques nuancent l’idée d’une justice prédictive et entièrement automatisée »

Chine : une femme robot pilotée par une IA devient PDG d'une entreprise de plusieurs milliers de salariés. Un ingénieur de Google avertit qu'une intelligence artificielle est "consciente" Web2Day : L’Intelligence Artificielle est-elle une personne comme les autres ? Deliveroo condamnée à une amende de 375 000 euros pour travail dissimulé. Plateformes numériques : la nécessaire adaptation du droit du travail. Les exploitants de plateformes en ligne ne sont, par principe, pas responsables des contenus contrefaisants mis en ligne par leurs utilisateurs - Lettre du Numérique. Protection des données personnelles : essentiel loi CNIL du 20 juin 2018 | vie-publique.fr.

Intelligence artificielle : comment votre façon d'écrire en ligne peut-elle révéler votre identité. Chatbots: des humains comme les autres ?