background preloader

Dossier : l’Intelligence Artificielle, entre espoirs et dangers pour l’Homme - Hello Future

Dossier : l’Intelligence Artificielle, entre espoirs et dangers pour l’Homme - Hello Future
C’était la vedette de la deuxième édition du salon Viva Technology, en juin 2017 à Paris : l’intelligence artificielle. Pas surprenant car, comme l’a noté Stéphane Richard, le PDG d’Orange, lors d’un « keynote », « l’intelligence artificielle est entrée dans une nouvelle dimension, grâce aux progrès du deep learning (apprentissage profond) qui lui ont permis de devenir une technologie beaucoup plus fiable ». Et d’illustrer son propos par deux chiffres : 75 %, c’était en 2011 le taux de reconnaissance d’objets dans une image ; on est aujourd’hui à 97 %, « même si la lumière est pauvre ou l’image floue ». Comme Stéphane Richard l’a souligné, « cette tâche est réalisée par l’IA avec un résultat bien meilleur et une rapidité supérieure à ce que peut effectuer n’importe quel opérateur humain ». Pour le patron d’Orange, « nous sommes à un moment décisif de l’histoire en termes de rythme d’innovation et de potentiel disruptif dans tous les secteurs ». Deep learning et machine learning. Related:  RobotsIntelligence Artificielle

Histoire de l'intelligence artificielle L'histoire de l'intelligence artificielle (IA) trouve ses origines intellectuelles jusqu’à l’Antiquité. En ces temps, il ne s’agissait évidemment pas d’une intelligence artificielle au sens technologique moderne, mais plutôt d’un ensemble de réflexions philosophiques, mythologiques et techniques qui témoignent d’une interrogation ancienne sur la possibilité de créer des entités artificielles dotées de comportements semblables à ceux attribués aux humains. Ainsi, si l’Antiquité ne connaît pas l’intelligence artificielle en tant que discipline scientifique, mais elle y préfigure certains aspects fondamentaux comme le rêve de créer des êtres artificiels ou la formalisation du raisonnement (le Syllogisme d' Aristote). Ces éléments constituent un héritage intellectuel qui, bien des siècles plus tard, nourrira le développement de l’intelligence artificielle moderne. Mais c'est après la seconde guerre mondiale et l'invention des ordinateurs programmables que l'IA prend son essor. En 1958, H.

Machine Learning et monde réel : 10 exemples concrets de cas d'usage du ML Le Machine Learning est une technologie de plus en plus utilisée dans toutes les industries, et souvent présentée comme révolutionnaire. Toutefois, aux yeux du grand public, les possibilités offertes par l’apprentissage automatique restent obscures. Pour mieux comprendre le potentiel disruptif de cette technologie, voici 10 exemples concrets de cas d’usage originaux et surprenants. Comme vous le savez sans doute, le Machine Learning est déjà utilisé massivement pour les recommandations sur les sites de e-commerce, pour les logiciels de reconnaissance vocale, ou encore pour affiner les résultats des résultats des moteurs de recherche. Toutefois, ces cas d’usage répandus ne sont qu’une infime partie des possibilités offertes par cette technologie. Le Machine Learning pour prendre rendez-vous par téléphone Difficile d’évoquer les cas d’usage concrets du Machine Learning sans parler de la technologie Google Duplex. Le Machine Learning pour apprendre à marcher

L'intelligence artificielle, danger ou progrès? Elle est déjà partout et ce n'est qu'un début: l'intelligence artificielle, ce mélange de puissance de calcul et de gigantesques bases de données, va nous devenir aussi indispensables que le moteur à essence - plus indispensable disent les plus acharnés. Elle pilotera bientôt nos voitures, répond déjà à nos questions sur nos smartphones et gérera sans doute notre maison, demain. Elle sert aussi à des buts moins louables, comme la surveillance généralisée ou la "notation sociale", mise en place en Chine. Cette semaine, L'Express fait la part du bon grain et de l'ivraie. NEWSLETTER PODCASTS >> L'Express prend la parole ! LIRE AUSSI >> La machine va-t-elle gagner? [Offre limitée] Spécial rentrée. 1€ par mois Je m'abonne Nous avons posé ces questions à Sébastien Julian et Bruno D. Une définition de l'intelligence artificielle ? "Défi vertigineux" : pour l'économie, pour nos sociétés, pour la science. L'intelligence artificielle pose des questions éthiques. Je m'abonne

L'intelligence artificielle : c'est quoi, et comment ça marche ? Brève histoire de l'intelligence artificielle Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des “théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. D’une façon plus commune, lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant certains traits de l’Homme. L'intelligence artificielle avant 2000 Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. Dans la même catégorie Dès le milieu des années 60, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. En 1974 arrive une période appelée le « AI Winter ».

Des logiciels experts en diagnostic médical Imagerie cérébrale, aide à la décision clinique, dépistage de maladies oculaires… l'intelligence artificielle promet de bouleverser les tâches et les usages du diagnostic médical. Le point sur les progrès et les limites de ces nouvelles technologies appliquées à la santé. « La quasi-totalité des champs de l’intelligence artificielle dispose d’applications dans le domaine de la santé. » La conclusion du rapport Stratégie France IA remis en mars 2017 au gouvernement est éloquente. Watson, le programme développé par IBM, en est l’exemple le plus emblématique. Une boucle d’apprentissage autonome « En s’aidant des connaissances médicales qu’elle possède, la machine en acquiert de nouvelles, tout comme le fait un être humain : plus il en sait, plus il apprend », illustre Amedeo Napoli, directeur de recherche au Laboratoire lorrain de recherche en informatique et ses applications1. Cyril FRESILLON/CNRS Photothèque Affiner le diagnostic et prédire l’évolution Simuler n’est pas jouer Description:

Intelligence artificielle : un danger pour l'Homme ? - Vidéo Les plus grands scientifiques et chefs d'entreprise du monde le répètent : méfions-nous de l'intelligence artificielle ! Que ce soit Frank Wilczek, prix Nobel de physique, ou encore des hommes d’affaire comme Bill Gates et Elon Musk, tous ont tiré la sonnette d'alarme ! Oui, mais contre quoi ? Qu’est-ce que l’intelligence artificielle ? Car donner une définition précise de ce qu'est l'intelligence artificielle n'est pas si facile... Pour ses détracteurs, c'est un danger : même Stephen Hawking, prestigieux astrophysicien, prévoyait le pire en 2014 : « Je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à l'humanité ». L'intelligence artificielle, opportunité ou menace ? Quels sont les arguments de ces sonneurs d'alerte ? Autre problème de taille : l'IA est dépourvue d'éthique. Cependant, réduire l'intelligence artificielle à ces menaces serait une erreur. Alors, l'IA : danger ou chance ?

Intelligence artificielle Intelligence artificielle L'intelligence artificielle (IA) est l'ensemble des systèmes informatiques capables d'effectuer des tâches typiquement associées à l'intelligence, telles que l'apprentissage, le raisonnement, la résolution de problèmes, la perception ou la prise de décision. L'intelligence artificielle est également le champ de recherche visant à développer de tels systèmes. Les applications de l'IA couvrent de nombreux domaines, notamment les moteurs de recherche, les systèmes de recommandation, l'aide au diagnostic médical, la compréhension du langage naturel, les voitures autonomes, les chatbots, les outils de génération d'images, les outils de prise de décision automatisée, les programmes compétitifs dans des jeux de stratégie et certains personnages non-joueurs de jeu vidéo[2]. Le champ de recherche, établi en 1956[3], a connu des périodes d'optimisme et de déception au cours du XXe siècle[4]. Les définitions font souvent intervenir[18],[19] : Apprentissage supervisé Roman V.

Related: