background preloader

Ethique

Facebook Twitter

Samsung Techwin America - Unmanned Autonomous Vehicle (April 1st, 2012) Getting Started. Blue Brain. Un article de Wikipédia, l'encyclopédie libre. Le projet Blue Brain (littéralement « cerveau bleu ») a pour objectif de créer un cerveau synthétique[1] par processus de rétroingénierie. Fondé en mai 2005 à l'École polytechnique fédérale de Lausanne (EPFL) en Suisse, ce projet étudie l'architecture et les principes fonctionnels du cerveau.

Il a été étendu, en 2013, au Human Brain Project (HBP), également dirigé par Henry Markram, mais financé principalement par l'UE. Objectifs[modifier | modifier le code] En 2002, Henry Markram (en) s'installe à l'EPFL ; en 2005, il convainc IBM de constituer une équipe internationale de 35 informaticiens, mathématiciens, biologistes et physiciens. Cette reconstitution virtuelle d'une colonne corticale, c'est-à-dire l'unité de base du cortex constituée de milliers de neurones, a permis d'identifier 240 types de neurones[2]. Progrès, critiques et Human Brain Project[modifier | modifier le code] Technologies[modifier | modifier le code] Centre pour l'étude des risques existentiels. Un article de Wikipédia, l'encyclopédie libre. Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge qui étudie les risques de menaces de la technologie actuelle dans le futur.

Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2]. L'une des études du centre, le risque que des robots se révoltent contre l'espèce humaine dans une approche semblable à la Terminator, a eu une certaine visibilité médiatique. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3].

Notes et références[modifier | modifier le code] Notes[modifier | modifier le code] (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Centre for the Study of Existential Risk » (voir la liste des auteurs). Un week-end de doute au sujet de l'intelligence artificielle. Il faut que je vous avoue être en plein doute, un doute que j’avais commencé à évoquer la semaine dernière à propos du programme de Google censé détecter la haine dans les commentaires, et qui échoue à le faire, de manière assez spectaculaire. J’y voyais une limite de l’intelligence artificielle. Samedi matin, je soumets cet exemple à un anthropologue spécialisé en anthropologie des machines qui tenait un discours extrêmement alarmiste sur le mode : ça y est les machines sont plus fortes que nous, elles font déjà des meilleurs diagnostics que les médecins, vont bientôt conduire des voitures, elles nous battent au poker etc.

Quand je lui soumets cet exemple des commentaires haineux, l’anthropologue répond en substance : oui, mais ces algorithmes sont auto-apprenant, ils vont se perfectionner, et puis on ne les maîtrise plus ; et si - parce qu’en plus ces machines sont connectées entre elles - leur venait l’idée de nous asservir, de faire nous leurs esclaves…. Pourquoi Google a conçu un « bouton rouge » pour désactiver des intelligences artificielles.

Des chercheurs de Google DeepMind Oxford ont prévu une manière de désactiver un programme d’IA, sans que celui-ci ne réussisse à la contourner. LE MONDE | • Mis à jour le | Par Morgane Tual Une intelligence artificielle (IA) est-elle capable d’empêcher un humain de la désactiver ? C’est de ce postulat que sont partis deux chercheurs pour réfléchir à une façon d’éviter que cela n’arrive. Laurent Orseau travaille pour DeepMind, l’entreprise de Google spécialisée dans l’intelligence artificielle qui est notamment à l’origine d’AlphaGo, le programme ayant réalisé l’exploit, en mars, de battre l’humain au jeu de go.

Avec Stuart Armstrong, du Futur of Humanity Institute de l’université d’Oxford, ils ont publié début juin les résultats de leurs recherches. Les deux chercheurs s’intéressent au cas de ces « agents » capables d’apprendre, qui fonctionnent avec un système de « récompenses », qui les pousse à atteindre un but. « Réfléchir à un certain futur » Ethique et communication. La voiture autonome sonne-t-elle le glas de l’assurance ? La voiture autonome marquera la fin de l’assurance actuelle mais ouvrira de nouvelles perspectives assurantielles. Pour ceux qui posent encore un regard amusé sur la voiture autonome, l’avenir proche risque de les faire radicalement changer de point de vue.

En effet, les constructeurs impliqués dans le développement de ces voitures robots prédisent une mise en circulation « sécuritaire » dès 2020. L’enjeu est crucial au regard des récentes politiques de sécurité routière visant à abaisser au maximum le nombre de décès sur les routes. La nouvelle ligne de conduite sera très prochainement, grâce aux voitures autonomes, celle du « 0 décès ». Le film semble passer en accéléré, la technologie allant de plus en plus vite et gagnant tous les jours en robustesse. Ce qui ressemblait à un film d’anticipation tant attendu par certains deviendra dès demain un élément de notre présent.

Fonctions de la voiture autonome La voiture autonome sera ainsi également un accumulateur d’énergie mobile. Les algorithmes prédictifs au cœur des stratégies e-commerce. L’algorithme s’est imposé comme un outil incontournable pour cibler au mieux le consommateur par des recommandations personnalisées : publicité ciblée, retargeting publicitaire, etc. La dernière mode est même aux algorithmes prédictifs, au cœur de la stratégie e-commerce des entreprises. En combinant l’analyse de données avec les statistiques prédictives, les e-commerçants tentent de prévoir les comportements des consommateurs, notamment des internautes, et agir par anticipation. En pratique, les moteurs d’algorithme prédictifs, ou encore de marketing prédictif, ont vocation à agréger tous types de données sur les internautes, afin de proposer à chaque individu des produits ou un contenu qui correspondent à ses besoins et/ou ses envies.

Pour aller encore plus loin, certains commerçants en ligne se dotent d’outils de filtrage collaboratif ayant vocation à identifier les produits qu’ont achetés d’autres internautes ayant le même profil. Alain Bensoussan Lexing Droit Marketing électronique. "Il faut appliquer le droit des humains au droit des robots" Alors que Terminator fêtait son grand retour dans les salles obscures, une autre machine tueuse faisait l’actualité mercredi dernier. Un ouvrier de l’usine Volkswagen près de Kassel, en Allemagne, a été tué par un robot pendant qu’il effectuait des travaux d’installation. Frappé à la poitrine puis propulsé contre une plaque métallique, l’intérimaire de 21 ans a été réanimé sur place avant de succomber à ses blessures. Un accident industriel comme les autres ? Le constructeur automobile a expliqué que l’accident n’était pas dû à un dysfonctionnement de la machine mais à une erreur humaine. Un vide juridique « Aujourd’hui, dans l’Etat de droit, la réponse est non », indique Alain Bensoussan, avocat spécialisé dans le droit des technologies avancées. « Mais demain, la réponse sera oui », ajoute-t-il, « il faut appliquer le droit des humains aux droits des robots ».

Les robots deviennent de plus en plus indépendants et nos interactions avec les machines croissent de façon exponentielle. Encadrement des systèmes d'armes létaux autonomes. La réunion des experts de la Convention sur certaines armes classiques concerne les systèmes d’armes létaux autonomes. La CCAC (1) a pour but d’interdire ou de limiter l’emploi de certains types particuliers d’armes qui sont réputées infliger des souffrances inutiles ou injustifiables aux combattants ou frapper sans discrimination les civils.

A ce titre, les travaux menés en application de la CCAC s’orientent sur les systèmes d’armes létaux autonomes (SALA), encore appelées armes robotisées autonomes (ou LAWS pour lethal autonomous weapons systems). Un système d’arme létal autonome peut être caractérisé par une capacité à se déplacer librement, à s’adapter à son environnement et d’effectuer le ciblage et le lancement d’effecteur létal, dans une autonomie fonctionnelle complète. Les documents de préparation de cette réunion transmis par la France (3) démontrent une réelle volonté d’approfondir la réflexion sur le sujet des SALA dans le respect absolu du droit des conflits armés.

Les chatbots et leurs erreurs inhumaines. GLaDOS - Portal Wiki.

Balisic de Rocco

Trois lois de la robotique. Un article de Wikipédia, l'encyclopédie libre. Les Trois lois de la robotique, formulées par l'écrivain de science-fiction Isaac Asimov, sont des règles auxquelles tous les robots positroniques qui apparaissent dans ses romans doivent obéir. Énoncé[modifier | modifier le code] Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi. Au cours du cycle des livres sur les robots, une loi zéro, qui prendra une importance considérable, sera instituée par deux robots, R. Giskard Reventlov et R. Daneel Olivaw, dans la nouvelle Les Robots et l'Empire.

Histoire[modifier | modifier le code] Extrait du dessin-animé Superman: The Mechanical Monsters (1941). « 1. Intelligence artificielle, éthique et gestion des risques. L’intelligence artificielle suscite de nombreuses interrogations tant sur le plan juridique qu’en matière d’éthique. L’intelligence artificielle est une technologie qui suscite des craintes. En effet, l’introduction de l’intelligence artificielle et de son corollaire, l’autonomie de décision et d’action dans son rapport avec l’humain, posent de nombreuses interrogations juridiques et éthiques. Cette technologie va bouleverser nos habitudes et remet en cause les certitudes des technologues mais aussi des futurs utilisateurs. Une attention particulière est accordée à l’éthique et plus précisément à la définition du sens et des valeurs dès la conception de l’intelligence artificielle mais aussi au droit et à la sécurité informatique.

Ces craintes plus ou moins fondées sont liées à l’automatisation des tâches et la délégation des missions à haute responsabilité à des intelligences artificielles. Les initiatives des entreprises La dernière initiative des géants de l’internet.