background preloader

Intelligence artificielle IA

Facebook Twitter

Intelligence artificielle : où en est-on ? Les « jeudis de la recherche » permettent à tous les acteurs de l’éducation intéressés par un domaine de le découvrir en deux temps : en faisant la rencontre d’un chercheur spécialiste du domaine abordé ; et en faisant celle d’un ou de plusieurs praticiens avec un témoignage concret sous l’angle des pratiques numériques, en amont ou en aval.lien vers le programme complet Cette rencontre a eu lieu le jeudi 21 février 2019, de 17h à 18h, en classe virtuelle et a été enregistrée. Présentation de l’intervenant : Marc Schoenauer est directeur de recherche INRIA (à Saclay) depuis 2001. Ancien élève de l’École Normale Supérieure, il a passé ensuite 20 ans comme chargé de recherche au CNRS, au Centre de Mathématiques Appliquées de l’École Polytechnique, où il a également été enseignant à temps partiel.

Ressources complémentaires : Diaporama de l’intervention Rapport « Donner un sens à l’intelligence artificielle » (mars 2018) Retrouvez toutes nos conférences : Cycle de conférences. L’IA : nouveau paradigme scientifique dominant. Les innovations sont devenues de plus en plus fréquentes et sont à la base de la stratégie de nombreuses entreprises, notamment lorsqu’elles font face à des marchés à maturité. Néanmoins, il existe peu d’innovations « de rupture » et l’on se situe plus dans un régime d’innovations « incrémentales ».

Bien que cette typologie soit restrictive, la problématique étant plus souvent une question de perception de l’innovation par les clients, elle suggère que certaines innovations dites « radicales » (Internet, le transistor, etc.) peuvent entraîner une série d’innovations en cascade qui affectent de nombreux secteurs et provoquent de nombreuses innovations d’offre, de processus, de modèle économique, et lancent un cycle de croissance. L’IA peut être considérée comme une innovation qui va bouleverser notre vie professionnelle et personnelle. Néanmoins, la diffusion des innovations, d’autant plus si elles sont radicales, est loin d’être un long fleuve tranquille. L’IA et la plume : la génération automatique de texte arrive à pleine maturité - demain.ai.

Par Gaetan Fron L’usage de la génération automatisée de texte va exploser dans les années à venir. La NLG (ou natural language generation), traduit en français par génération automatisée de texte est une capacité de l’IA qui vise à produire des textes à partir de données, avec une qualité comparable à celle de rédacteurs humains. Cette capacité est ancienne, mais elle fait actuellement d’énormes progrès car elle s’appuie sur la multitude de données et les avancées des capacités connexes de l’IA dans le traitement du langage naturel.

Les montagnes de données disponibles ne peuvent être analysées par un humain, les données sont produites en masse, il faut pouvoir les analyser et leur donner du sens. Les cas d’usages de la data-écriture sont variés Les gains de productivité associés à l’utilisation de l’IA dans la génération de texte sont évidents. Alertesun paragrapheplusieurs paragraphesun document d’une ou plusieurs pages. Des données vers le texte et au-delà. Le vocabulaire de l'IA maintenant adapté en français | Bercy numérique. La commission d'enrichissement de la langue française a publié au Journal Officiel les traductions officielles des derniers termes relatifs à l'intelligence artificielle. Il faudra désormais s'habituer à entendre parler d'un agent de dialogue ou d'un dialogueur pour évoquer un chatbot. Chaîne de blocs à la place de blockchain, arrosage pour Spam, fouineur pour Hacker, fenêtre intruse au lieu de pop-up, nuage pour cloud...

Année après année, le vocabulaire de l'informatique et des nouvelles technologies accueille des nouvelles traductions officielles. La commission d'enrichissement de la langue française a encore frappé en s'attaquant cette fois aux termes de l'intelligence artificielle. Lire la suite (Le Monde informatique) Légifrance. Les grands discours seront-ils rédigés par des Intelligences artificielles ? - 21 grands discours. « Apprendre au XXIᵉ siècle » : un pari sur l’intelligence collective. Il est grand temps que l’apprentissage de la curiosité l’emporte sur celui de la soumission.

Tel est le « credo » sur lequel repose Apprendre au XXIᵉ siècle, l’importante et passionnante contribution que François Taddei vient d’apporter à la réflexion sur l’avenir de l’école et les enjeux de la connaissance. Si l’on veut progresser vers une « société apprenante », « où les apprentissages des uns facilitent ceux des autres », une « révolution de nos façons d’apprendre, en tout lieu et à tout âge » s’impose, juge-t-il.

Le point sur les perspectives développées dans cet ouvrage. Créer et coopérer Pourquoi est-il indispensable aujourd’hui d’apprendre différemment ? D’une part, il faut prendre en compte l’impact de la révolution numérique. Ensuite, il faut voir que ce double choc nous place devant un défi considérable. Dans ces conditions, un changement de paradigme s’impose. Des dispositifs en réseau Que faire, alors ? Intelligences et valeurs François Taddei mène en fait un double combat. Nous sommes le Monsieur Jourdain de l’intelligence artificielle. Les journées Experiences18 organisées par Microsoft, ont été l’occasion d’annoncer la création de l’Observatoire de la Notoriété et de l’Image de l’Intelligence Artificielle en France.

Une étude très intéressante a été publiée conjointement avec l’IFOP sur les français et l’intelligence artificielle.Premier constat, 88% des Français interrogés ont déjà entendu parler de l’Intelligence Artificielle. Près de la moitié (48%) savent précisément de quoi il s’agit . Monsieur Jourdain faisait de la prose sans le savoir Si Monsieur Jourdain faisait de la prose sans le savoir dans la fameuse pièce de Molière, on constate que c’est un peu la même chose aujourd’hui pour les Français face à l’intelligence artificielle.En effet, les Français utilisent au quotidien des IA sans en avoir la notion. De même quand on leur demande s’ils ont utilisé une application permettant de corriger ou de compléter un texte sur des écrans mobiles, la réponse et oui à 70%. Nous y sommes : une IA peut « déchiffrer » ce que voit le cerveau - Sciences.

Nous pourrions très bientôt être en mesure de diffuser nos pensées sur un écran. Et cela, grâce à une intelligence artificielle. Des scientifiques de l’université de Kyoto ont créé une intelligence artificielle (IA) capable de lire les ondes cérébrales d’un individu et de produire une image à partir de ce qu’il regarde, rapporte The Next Web. Ces travaux sont détaillés dans un article de recherche publié fin décembre, intitulé « Reconstruction d’images en profondeur à partir de l’activité du cerveau humain ». Dans ce cadre, les chercheurs ont montré des images à des volontaires pendant 10 jours et ont mesuré leurs ondes cérébrales. L’expérience s’est déroulée de deux manières : dans certains cas, l’activité cérébrale était enregistrée en temps réel, pendant que le sujet regardait l’image. Dans d’autres cas, le sujet devait penser aux images qu’il avait vues auparavant. Déchiffrage de scans cérébraux L’IA devine à quoi l’image doit ressembler. Comprendre, en Intelligence Artificielle et Intelligence Humaine.

Les récentes publication de PIRLS sur la lecture et la compréhension mettent en évidence le fait que le système scolaire français développe mieux le décodage que la compréhension (de textes écrits). La mise à disposition, par Libération, du hors-série « voyage au coeur de l’IA » (20/12/2017), permet à chacun de nous de se faire un panorama de la question de « l’intelligence artificielle » à ce jour.

Au coeur de ces articles et interview, mais plus généralement derrière tous ces propos actuels sur l’IA, est posée la question de ce que signifie « comprendre ». Dès les premiers pas de l’informatique éducative, on s’est heurté à la question de l’analyse des réponses des utilisateurs aux questions posées par les ordinateurs. Les limites de l’informatique ont rapidement fait déchanter tous ceux qui rêvaient d’un « analyseur de réponses » intelligent, d’un traducteur automatique, d’un transcripteur voix/texte parfait (speechtexter proposé par Google n’est pourtant pas si mal…).

Cette IA de Google sait si un humain va aimer une photo ou non - Tech. Chez Google, des spécialistes de l'intelligence artificielle se sont demandés si cette technologie pourrait deviner quand une photo est jugée esthétique par un humain. L'IA qu'ils ont mis au point repose sur un réseau neuronal particulier, dit « convolutif ».

Les intelligences artificielles développées dans le giron de Google sont nombreuses en cette fin d’année. Outre cette IA qui repère les regards indiscrets en direction de votre smartphone, l’entreprise de Mountain View a mobilisé cette technologie pour créer un système champion aux échecs, ou pour découvrir des exoplanètes en compagnie de la Nasa. D’autres salariés de Google spécialistes de l’IA ont trouvé une nouvelle utilité aux algorithmes qu’ils entraînent. Ils ont cherché à mettre au point une intelligence artificielle capable d’identifier si une photographie sera jugée esthétique par un être humain. L’IA pourrait trier des photos identiques Finalement, à quoi pourrait servir cette IA ?

Intelligences. L’intelligence, qu’est ce que c’est ? Les définitions abondent. Nous en parlerons ici comme la capacité de trouver une solution à un problème. Toute solution implique la découverte d’un lien entre des éléments jusqu’alors considérés comme indépendants. Ce n’est une « découverte » que vis-à-vis des connaissances de l’observateur. S’il le savait déjà, ou s’il ne comprend pas ce lien, alors ce n’est pas de l’intelligence. Plaçons-nous dans le cas où les règles qui régissent le fonctionnement de l’Univers sont déjà écrites (ce n’est pas toujours le cas, par exemple avec la disparition des polymorphes [2]). Capteurs, mémoire et algorithmes Pour être intelligent, il suffit d’observer les situations, repérer une coïncidence et vérifier que cette coïncidence n’en est pas une, que nous avons bien affaire à un lien avéré.

Le développement d’une intelligence artificielle (IA) serait donc simplissime ? L’intelligence généraliste Pourquoi ne sommes-nous que peu impressionnés par ces exploits ? Le sentiment de présence... sans la présence : le défi des robots de télé-présence. Aujourd’hui, les robots de télé-présence mobiles les plus utilisés dans les secteurs de la santé, de l’éducation ou de l’entreprise sont bien éloignés des technologies visibles dans le film Star Trek.

Il s’agit d’un écran monté sur roues, pouvant être commandé à distance, depuis un ordinateur ou un smartphone. Une application de commande permet de faire bouger le robot, comme on le ferait avec un personnage de jeu vidéo : une webcam est fixée sur le poste de commande et une autre sur le robot. Une société lyonnaise de robotique, Awabot, distribue des robots de télé-présence conçus par l’entreprise américaine Suitable Technologies, fonctionnant avec l’application de pilotage BEAM. Elle propose différents modèles : alors que le modèle le plus cher coûte 17 000 euros et mesure 1m60, le modèle intermédiaire est plus accessible – il coûte 6 000 euros, mesure 1m40 et possède jusqu’à 8h d’autonomie. Les chatbots, véritables chefs d'orchestre de vos données. En l’espace d’un an, les chatbots se sont invités dans tous les débats. Or, s’ils s’avèrent pertinents pour certains cas d’usage, réduire le sujet des bots aux chatbots, reviendrait à regarder le monde par le petit bout de la lorgnette.

Nous allons traiter ici des bots au sens large : les progrès de l’IA viennent démultiplier les tâches que l’on peut leur confier. Un bot est une brique logicielle chargée d’une mission spécifique. On est assez loin de Wall-E ! IA forte et IA faible L’un des pères fondateurs de l’Intelligence Artificielle, Marvin Lee Minsky (1927-2016) a défini sa discipline de la façon suivante : « Science dont le but est de faire faire par une machine des tâches que l’homme accomplit en utilisant son intelligence ». En attendant, l’IA faible offre un champ des possibles largement négligé par les entreprises, à l’exception des GAFIM qui ont pris une solide longueur d’avance. Alignement des planètes L’humain aime les « zones grises » La maintenance prédictive, « killer app » de l’intelligence artificielle. Longtemps la notion d’intelligence artificielle a été confinée aux pages des publications scientifiques et des romans de science-fiction. Mais, en quelques années à peine, les progrès technologiques ont repoussé très loin les frontières de l’impossible et ce qui était hier du domaine de la théorie ou de la spéculation devient aujourd’hui réalité.

Par manque de visibilité, les entreprises approchent cependant le sujet avec prudence. Les bénéfices rapides et tangibles de la maintenance prédictive pourraient bien balayer leurs dernières réticences… Aux origines de l’intelligence artificielle, dans les années 1950, le rêve était de créer des machines douées de capacités semblables à celles de l’être humain. L’IA recouvre par conséquent plusieurs problématiques comme la perception (la reconnaissance d’images, par exemple), la compréhension et l’expression en langage naturel (le fameux test de Turing), et le raisonnement. La maintenance prédictive pourrait jouer ce rôle. Web 4.0 : Quand le numérique franchit le physique. Si l’on a pris l’habitude que notre smartphone nous assiste dans toutes les tâches du quotidien (consulter la météo, vérifier son agenda, connaître l’horaire du prochain train…), le geste de sortir notre téléphone de notre poche et de consulter l’application idoine pourrait bien nous paraître fastidieux dans quelques années.

Car désormais, notre environnement physique pourrait être suffisamment « intelligent » pour nous renseigner et soulager les terribles contraintes de notre existence. Une quatrième révolution d’usage ? D’aucuns décrivent les révolutions numériques en considérant les dates d’irruption des différentes technologies, d’autres en se référant à l’ère industrielle, d’autres enfin remontent leur chronologie à l’invention de l’imprimerie ! Je préfère pour ma part retenir la manière dont ces technologies ont impacté l’individu en numérotant, comme l’a initié Tim O’Reilly avec le terme de Web 2.0, les différentes vagues de révolutions d’usages.