background preloader

AI & Optimization

Facebook Twitter

How to teach Deep Blue to play poker and deliver groceries. Deep Blue gained world-wide attention in 1997 when it defeated the then chess world champion Garry Kasparov.

How to teach Deep Blue to play poker and deliver groceries

But playing chess was all that Deep Blue could do. Ask it to play another game, even a simpler one, such as checkers, and Deep Blue would not even know how to play at beginner level. The same is also true of many other programs that can beat humans. Computers that can play poker cannot play bridge. This type of tailored software development is also apparent in systems that we rely on every day. In recent years there has been a growing interest in a field called hyper-heuristics, which aims to develop more general computer systems. The figure below shows a typical hyper-heuristic framework.

If we start with a possible shift pattern (perhaps from the previous week), we can do certain things to improve it. The important thing is that we have a number of these low-level heuristics that we can use to improve the current roster. Mcostalba/Stockfish. 2 exemples d’intelligence artificielle. Voici 2 news d'importance concernant l'intelligence artificielle, que je me permet de regrouper et qui je pense devrait vous intéresser.

2 exemples d’intelligence artificielle

La première concerne un robot mis au point à l'Institut Technologique de Tokyo. Celui-ci est capable de penser de lui-même afin d'apprendre à résoudre des problèmes auquel il n'a encore jamais été confronté. Pour cela, il utilise un réseau neuronal incrémental capable de s'auto organiser (SOINN pour Self Organizing Incremental Neural Network) afin d'amélioreer son apprentissage. Lorsqu'il est confronté à une nouvelle situation, ce robot va bien sûr apprendre de lui même en faisant ses propres expériences mais aussi en cherchant les infos dont il a besoin sur Internet ou en demandant à ses pôtes robots connectés au même réseau que lui.

Artificial Intelligence: A Modern Approach. Méthode de Monte-Carlo. Un article de Wikipédia, l'encyclopédie libre.

Méthode de Monte-Carlo

Le terme méthode de Monte-Carlo, ou méthode Monte-Carlo, désigne toute méthode visant à calculer une valeur numérique en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Le nom de ces méthodes, qui fait allusion aux jeux de hasard pratiqués à Monte-Carlo, a été inventé en 1947 par Nicholas Metropolis[1], et publié pour la première fois en 1949 dans un article coécrit avec Stanislaw Ulam[2]. Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Modèle d'Ising. Un article de Wikipédia, l'encyclopédie libre.

Modèle d'Ising

Pour les articles homonymes, voir Ising. Le modèle d'Ising (parfois aussi appelé modèle de Lenz-Ising), dénommé d'après le physicien Ernst Ising, est un modèle de physique statistique. Il a été utilisé pour modéliser différents phénomènes dans lesquels des effets collectifs sont produits par des interactions locales entre particules à deux états, comme le ferromagnétisme. Le modèle d'Ising est un modèle sur réseau de moments magnétiques, dans lequel les particules ont pour propriétés spécifiques d'être toujours orientés suivant le même axe spatial et de ne prendre que deux valeurs possibles, +M et -M. Applications[modifier | modifier le code] Matériaux ferromagnétique[modifier | modifier le code] Ce modèle permet de décrire relativement simplement le magnétisme des matériaux ferromagnétiques présentant une anisotropie très forte avec une direction privilégiée très marquée. UCT at Sensei.

UCT for Monte Carlo computer go.

UCT at Sensei

Jeu de go en informatique. Un article de Wikipédia, l'encyclopédie libre.

Jeu de go en informatique

Tableau de jeu de Go informatisé. Introduction to Monte Carlo Algorithms. Advanced Monte Carlo Methods: Lecture Notes. Advanced Monte Carlo Methods. What are Monte Carlo Methods?

Advanced Monte Carlo Methods

Www.nbu.bg/cogs/events/2000/Readings/Petrov/rltutorial.pdf. Chess Grandmasters Take Lessons From ... a Windows Machine? Deep Blue - Kasparov : un match truqué ? IBM a récemment fêté les quinze ans de la victoire de son célèbre supercalculateur Deep Blue sur le multiple champion du monde d'échecs Garry Kasparov.

Deep Blue - Kasparov : un match truqué ?

En marge de cet anniversaire, un livre publié il y a peu révèle une petite histoire intéressante ayant eu lieu pendant ce match. En effet, dans le livre de Nate Silver, The Signal and the Noise, celui-ci a interviewé un informaticien ayant travaillé sur Deep Blue, Murray Campbell. BackPropagation of Error algorithm proof. Neural Network Software. Www.univ-orleans.fr/lifo/Members/salleb/publications/publi/manuscrit.pdf. Réseau de neurones artificiels.

Un article de Wikipédia, l'encyclopédie libre.

Réseau de neurones artificiels

Un réseau de neurones artificiels est un modèle de calcul dont la conception est très schématiquement inspirée du fonctionnement des neurones biologiques. Les réseaux de neurones sont généralement optimisés par des méthodes d’apprentissage de type probabiliste, en particulier bayésien. Reconnaissance de formes. Un article de Wikipédia, l'encyclopédie libre.

Reconnaissance de formes

La reconnaissance de formes (ou parfois reconnaissance de motifs) est un ensemble de techniques et méthodes visant à identifier des motifs informatiques à partir de données brutes afin de prendre une décision dépendant de la catégorie attribuée à ce motif[1]. On considère que c'est une branche de l'intelligence artificielle qui fait largement appel aux techniques d'apprentissage automatique et aux statistiques.

Neurone formel. Un article de Wikipédia, l'encyclopédie libre. Représentation d'un neurone formel (ou logique) Le neurone formel est l'unité élémentaire des réseaux de neurones artificiels dans lesquels il est associé à ses semblables pour calculer des fonctions arbitrairement complexes, utilisées pour diverses applications en intelligence artificielle. Réseau bayésien. Un article de Wikipédia, l'encyclopédie libre. Un réseau bayésien est en informatique et en statistique un modèle graphique probabiliste représentant des variables aléatoires sous la forme d'un graphe orienté acyclique.

Intuitivement, ils sont à la fois : Pour un domaine donné (par exemple médical), on décrit les relations causales entre variables d'intérêt par un graphe. Dans ce graphe, les relations de cause à effet entre les variables ne sont pas déterministes, mais probabilisées. Ainsi, l'observation d'une cause ou de plusieurs causes n'entraîne pas systématiquement l'effet ou les effets qui en dépendent, mais modifie seulement la probabilité de les observer. Random forest. The selection of a random subset of features is an example of the random subspace method, which, in Ho's formulation, is a way to implement classification proposed by Eugene Kleinberg.[6] Portail:Informatique théorique. Programmation génétique. Un article de Wikipédia, l'encyclopédie libre.

Description[modifier | modifier le code] On nomme programmation génétique une technique permettant à un programme informatique d'apprendre, par un algorithme évolutionniste, à optimiser peu à peu une population d'autres programmes pour augmenter leur degré d'adaptation (fitness) à réaliser une tâche demandée par un utilisateur. Historique[modifier | modifier le code] Afin de bien comprendre d’où vient la programmation génétique, nous allons tout d’abord identifier quelques dates importantes pour cette recherche : Algorithme génétique. Un article de Wikipédia, l'encyclopédie libre. Origines[modifier | modifier le code] La popularisation des algorithmes génétiques sera l'œuvre de David Goldberg à travers son livre Genetic Algorithms in Search, Optimization, and Machine Learning[1] (1989).

Ce livre est encore édité aujourd'hui. En Europe, la première conférence sur ce type de sujet fut l'European Conference on Artificial Life en 1991 (elle a fêté ses 20 ans en 2011[2]), coorganisée par Francisco Varela et Paul Bourgine. Un des premiers ouvrages à présenter en Français les algorithmes génétiques sera le livre[3] Intelligence Artificielle et Informatique Théorique qui lui consacrera un chapitre dès 1993. Apprentissage automatique : les réseaux de neurones. Comment l'homme fait-il pour raisonner, parler, calculer, apprendre, ...? Shannon number. Claude Shannon. 10 mètres et pas un millimètre de plus. Réaliser un véhicule autonome s’approchant le plus possible de la ligne d’arrivée située à 10 mètres sans la dépasser, et cela le plus vite possible : c’est le défi qu’ont relevé 10 équipes d’étudiants en troisième année de la licence de physique de l’UPMC et leurs enseignants dans le cadre d’un projet expérimental.

La performance de la meilleure équipe est impressionnante : la distance a été parcourue en 7 seconde et le véhicule s’est arrêté à moins de 2 centimètres de la ligne d’arrivée. Le règlement du défi était le suivant : avec un véhicule totalement autonome pesant moins de 2 kilogrammes, parcourir le plus précisément et le plus rapidement la distance de 10 mètres. 3 essais étaient autorisés. Tout dépassement de la ligne d’arrivée invalidait l’essai. Etait déclarée vainqueur l’équipe pour laquelle la somme du nombre de centimètre qu’il restait à parcourir et du temps de parcours en seconde était le plus petit.

Théorie de la décision. Un article de Wikipédia, l'encyclopédie libre. La théorie de la décision est une théorie de mathématiques appliquées ayant pour objet la prise de décision. Théorie de la décision intertemporelle[modifier | modifier le code] La notion de décision intertemporelle découle de la prise en compte du facteur temps dans les problématiques reliant l'offre et la demande, les disponibilités et les contraintes. Ces problématiques sont celles qui découlent des combinaisons possibles entre les disponibilités et les décisions pouvant les impliquer. Les diverses fluctuations susceptibles d'être mesurées et prévues par ailleurs permettent ainsi de nourrir des modèles dynamiques. Aide à la décision multicritère. Un article de Wikipédia, l'encyclopédie libre.

L'aide à la décision multicritère constitue une branche d'étude majeure de la recherche opérationnelle impliquant plusieurs écoles de pensée, principalement américaine avec les travaux de Thomas L. Saaty et européenne avec ceux de Bernard Roy et du LAMSADE (Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision). Il s'agit de méthodes et de calculs permettant de choisir la meilleure solution ou la solution optimale parmi tout un ensemble de solutions, l'alternative de type OUI-NON n'étant qu'un cas particulier du cas général. Un abus de langage courant consiste à la confondre avec l'informatique décisionnelle (en anglais "business intelligence") et l'aide à la décision multicritère.

L'informatique décisionnelle est dédiée à l'exploitation de données (query/reporting et data mining, principalement) destinée à l'élaboration de synthèses multi-niveaux. Matrice McKinsey. Fuzzy operator. Inférence bayésienne. Théorème de Cox-Jaynes. Ensemble flou. Infomous. Massive data processing with Hive: US flight history analysis. Digital Daaroo: Using Hive for weblog analysis. Welcome to Apache™ Hadoop™! Welcome to Hive! CloudBase- Data Warehouse System For Terabyte And Petabyte Scale Analytics.

Netlab-mn.unipv.it/hive/ossconf_presentation.pdf. Data Analysis with Hadoop and Hive, ChicagoDB 2/21/2011. Ramsey's theorem. Www.combinatorics.org/Surveys/ds1/sur.pdf. World's Largest Quantum Computation Uses 84 Qubits. Ramsey Number. Artificial life. Tandem exon duplication. Segmental duplication. Polyploid. Exon shuffling. How to Build a Smarter Airport Terminal - JetBlue T5 JFK Airport. Stochastic Pattern Recognition Dramatically Outperforms Conventional Techniques. Control theory. Artificial intelligence. Kin selection. Swarm intelligence. Altruism helps swarming robots fly better, study shows.

Ant colony optimization algorithms. Collective consciousness.