background preloader

Dossier : l’Intelligence Artificielle, entre espoirs et dangers pour l’Homme - Hello Future

Dossier : l’Intelligence Artificielle, entre espoirs et dangers pour l’Homme - Hello Future
C’était la vedette de la deuxième édition du salon Viva Technology, en juin 2017 à Paris : l’intelligence artificielle. Pas surprenant car, comme l’a noté Stéphane Richard, le PDG d’Orange, lors d’un « keynote », « l’intelligence artificielle est entrée dans une nouvelle dimension, grâce aux progrès du deep learning (apprentissage profond) qui lui ont permis de devenir une technologie beaucoup plus fiable ». Et d’illustrer son propos par deux chiffres : 75 %, c’était en 2011 le taux de reconnaissance d’objets dans une image ; on est aujourd’hui à 97 %, « même si la lumière est pauvre ou l’image floue ». Comme Stéphane Richard l’a souligné, « cette tâche est réalisée par l’IA avec un résultat bien meilleur et une rapidité supérieure à ce que peut effectuer n’importe quel opérateur humain ». Pour le patron d’Orange, « nous sommes à un moment décisif de l’histoire en termes de rythme d’innovation et de potentiel disruptif dans tous les secteurs ». Deep learning et machine learning. Related:  RobotsIntelligence Artificielle

Histoire de l'intelligence artificielle L'histoire de l'intelligence artificielle (IA) débute dans l'Antiquité, avec des histoires, mythes et rumeurs d'êtres artificiels conçus par des maîtres artisans. Des philosophes et scientifiques tels que Leibniz ont plus tard tenté de formaliser le processus de la pensée humaine. Mais c'est après la seconde guerre mondiale et l'invention des ordinateurs programmables que l'IA prend son essor. L'intelligence artificielle, nommée ainsi par John McCarthy, est établie en tant que discipline scientifique lors de la conférence de Dartmouth en 1956. L'IA a connu des périodes d'enthousiasme, notamment dans les années 1980 avec les systèmes experts, mais aussi deux périodes de désillusion et de gel des financements appelées « hivers de l'IA » (de 1974 à 1980, et de 1987 à 1993)[1]. Introduction[modifier | modifier le code] Malgré des hauts et des bas et en dépit de certaines réticences de décideurs et investisseurs, l'intelligence artificielle progresse. Automates[modifier | modifier le code]

Faut-il avoir peur des robots ? Des mouvements de plus en plus rapides, des gestes de plus en plus fluides. Des machines à l'apparence et aux capacités toujours plus proches de celles de l'humain. Les robots, meilleurs amis de l'homme pour la vie, ou pourraient-ils un jour se retourner contre nous ? Dans ce magasin, c'est Pepper, un robot humanoïde, qui accueille les clients. C'est en tout cas le promesse de Buddy, le prototype du robot compagnon. Le JT Machine Learning et monde réel : 10 exemples concrets de cas d'usage du ML Le Machine Learning est une technologie de plus en plus utilisée dans toutes les industries, et souvent présentée comme révolutionnaire. Toutefois, aux yeux du grand public, les possibilités offertes par l’apprentissage automatique restent obscures. Pour mieux comprendre le potentiel disruptif de cette technologie, voici 10 exemples concrets de cas d’usage originaux et surprenants. Comme vous le savez sans doute, le Machine Learning est déjà utilisé massivement pour les recommandations sur les sites de e-commerce, pour les logiciels de reconnaissance vocale, ou encore pour affiner les résultats des résultats des moteurs de recherche. Toutefois, ces cas d’usage répandus ne sont qu’une infime partie des possibilités offertes par cette technologie. Le Machine Learning pour prendre rendez-vous par téléphone Difficile d’évoquer les cas d’usage concrets du Machine Learning sans parler de la technologie Google Duplex. Le Machine Learning pour apprendre à marcher

Mutations du travail : les différents profils de l’intelligence artificielle Article réservé aux abonnés Que l’intelligence artificielle (IA) s’apprête à bouleverser le monde du travail, nul n’en doute. Mais personne ne connaît encore le ­visage de cette révolution technologique. Donnera-t-elle naissance à un homme « remplacé », comme le craignaient, au XIXe siècle, les luddites anglais qui détruisaient les métiers à tisser ? Parce qu’il estime que ce « momentum technologique » est avant tout un « momentum anthropologique », le sociologue Yann Ferguson, ­enseignant-chercheur à l’Institut catholique d’arts et métiers de Toulouse, explore ces ­quatre figures du travailleur à l’âge de l’IA en convoquant les sciences sociales, la littérature et la philosophie. Article réservé à nos abonnés Lire aussi Mutations du travail : le « lean management », une forme moderne du taylorisme ?

L'intelligence artificielle, danger ou progrès? Elle est déjà partout et ce n'est qu'un début: l'intelligence artificielle, ce mélange de puissance de calcul et de gigantesques bases de données, va nous devenir aussi indispensables que le moteur à essence - plus indispensable disent les plus acharnés. Elle pilotera bientôt nos voitures, répond déjà à nos questions sur nos smartphones et gérera sans doute notre maison, demain. Elle sert aussi à des buts moins louables, comme la surveillance généralisée ou la "notation sociale", mise en place en Chine. Cette semaine, L'Express fait la part du bon grain et de l'ivraie. NEWSLETTER PODCASTS >> L'Express prend la parole ! LIRE AUSSI >> La machine va-t-elle gagner? [Offre limitée] Spécial rentrée. 1€ par mois Je m'abonne Nous avons posé ces questions à Sébastien Julian et Bruno D. Une définition de l'intelligence artificielle ? "Défi vertigineux" : pour l'économie, pour nos sociétés, pour la science. L'intelligence artificielle pose des questions éthiques. Je m'abonne

Brève histoire de l'intelligence artificielle Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des “théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. D’une façon plus commune, lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant certains traits de l’Homme. L'intelligence artificielle avant 2000 Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. Dans la même catégorie Dès le milieu des années 60, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. En 1974 arrive une période appelée le « AI Winter ».

Intelligence Artificielle : Quels sont les dangers et promesses d'un langage propre ? Vidéo Technologie La semaine dernière, les ingénieurs du laboratoire de Recherche en Intelligence Artificielle de Facebook (FAIR) ont été contraints de débrancher deux de leurs robots en pleine expérience. Pour cause, ceux-ci avaient développé une nouvelle variante de l’anglais, incompréhensible pour les chercheurs et probablement plus efficace pour parvenir à la réalisation de leur objectif. La presse et l’opinion s’emballent immédiatement. Nombreux sont ceux qui décomptent déjà les jours nous séparant du moment fatidique où les machines prendront le contrôle. Lire aussi > Charles-Edouard Bouée : « L’intelligence artificielle va bouleverser le monde » Rien d’anormal, selon Facebook Dhruv Batra, ingénieur au laboratoire de Facebook, s’étonne dans un message publié lundi 31 juillet sur le réseau social de cette panique générale. Des négociateurs accomplis Lire aussi > En Chine, un expert en intelligence artificielle s’est marié avec son robot humanoïde Des promesses alléchantes

Des logiciels experts en diagnostic médical Imagerie cérébrale, aide à la décision clinique, dépistage de maladies oculaires… l'intelligence artificielle promet de bouleverser les tâches et les usages du diagnostic médical. Le point sur les progrès et les limites de ces nouvelles technologies appliquées à la santé. « La quasi-totalité des champs de l’intelligence artificielle dispose d’applications dans le domaine de la santé. » La conclusion du rapport Stratégie France IA remis en mars 2017 au gouvernement est éloquente. Watson, le programme développé par IBM, en est l’exemple le plus emblématique. Une boucle d’apprentissage autonome « En s’aidant des connaissances médicales qu’elle possède, la machine en acquiert de nouvelles, tout comme le fait un être humain : plus il en sait, plus il apprend », illustre Amedeo Napoli, directeur de recherche au Laboratoire lorrain de recherche en informatique et ses applications1. Cyril FRESILLON/CNRS Photothèque Affiner le diagnostic et prédire l’évolution Simuler n’est pas jouer Description:

Related: