background preloader

Cognition

Facebook Twitter

Psychologies

Machine à vecteurs de support. Un article de Wikipédia, l'encyclopédie libre. Les SVM ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la Théorie de Vapnik-Chervonenkis. Les SVM ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyper paramètres, leurs garanties théoriques, et leurs bons résultats en pratique. Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance[1]...). Selon les données, la performance des machines à vecteurs de support est de même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mixture gaussienne. Historique[modifier | modifier le code] Les séparateurs à vastes marges reposent sur deux idées clés : la notion de marge maximale et la notion de fonction noyau.

Résumé intuitif[modifier | modifier le code] où les . D'où . Artificial intelligence. AI research is highly technical and specialized, and is deeply divided into subfields that often fail to communicate with each other.[5] Some of the division is due to social and cultural factors: subfields have grown up around particular institutions and the work of individual researchers.

AI research is also divided by several technical issues. Some subfields focus on the solution of specific problems. Others focus on one of several possible approaches or on the use of a particular tool or towards the accomplishment of particular applications. The central problems (or goals) of AI research include reasoning, knowledge, planning, learning, natural language processing (communication), perception and the ability to move and manipulate objects.[6] General intelligence is still among the field's long-term goals.[7] Currently popular approaches include statistical methods, computational intelligence and traditional symbolic AI.

History[edit] Research[edit] Goals[edit] Planning[edit] Logic-based. Intelligence Artificielle  Effet Zeigarnik. Un article de Wikipédia, l'encyclopédie libre. L’effet Zeigarnik désigne la tendance à mieux se rappeler une tâche qu'on a réalisée si celle-ci a été interrompue alors qu'on cherche par ailleurs à la terminer.

Le fait de s'engager dans la réalisation d'une tâche crée une motivation d'achèvement qui resterait insatisfaite si la tâche est interrompue. Sous l'effet de cette motivation une tâche interrompue doit être mémorisée mieux qu'une tâche achevée. L'expérimentation princeps[modifier | modifier le code] Bluma Zeigarnik, élève de Kurt Lewin demande à des enfants d’accomplir, en une journée, une série de vingt petits travaux (modeler des animaux, enfiler des perles, assembler les pièces d’un puzzle…). L'inspiration de Madame Zeigarnik tirait sa source de la théorie de la psychologie de la forme (gestalt théorie).

Autres données expérimentales[modifier | modifier le code] Psychanalyse[modifier | modifier le code] Bibliographie[modifier | modifier le code] Zeigarnik, B. (1927).

Thèses & mémoires

Talcott Parsons. Un article de Wikipédia, l'encyclopédie libre. Talcott Parsons Repères biographiques[modifier | modifier le code] Après avoir passé son B.A. au Amherst College avec une dominante en biologie, il entre à la London School of Economics où il s'intéresse aux travaux de Harold Laski, R.H Tawney, Bronislaw Malinowski et Leonard Trelawny Hobhouse.

Il va ensuite à l'université de Heidelberg où il obtient un doctorat en sociologie et économie. Théorie de l'action[modifier | modifier le code] Parsons est principalement connu pour sa théorie de l'action. Adaptation au milieu environnant physique et social ;Goal-Attainment (poursuite des buts) ;Integration des membres dans le système social ;Latent function (stabilité latente). Principaux ouvrages[modifier | modifier le code] The Structure of Social Action (1937)(article) Parsons, Talcott. 1942. Voir aussi[modifier | modifier le code] Bibliographie[modifier | modifier le code] Liens externes[modifier | modifier le code] Epistémologie de Karl Popper - Emergence et représentation - Frédéric Fabre. Réseau de neurones artificiels. Un article de Wikipédia, l'encyclopédie libre.

Un réseau de neurones artificiels est un modèle de calcul dont la conception est très schématiquement inspirée du fonctionnement des neurones biologiques. Les réseaux de neurones sont généralement optimisés par des méthodes d’apprentissage de type probabiliste, en particulier bayésien. Ils sont placés d’une part dans la famille des applications statistiques, qu’ils enrichissent avec un ensemble de paradigmes [1] permettant de créer des classifications rapides (réseaux de Kohonen en particulier), et d’autre part dans la famille des méthodes de l’intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres de l'implémenteur, et fournissant des informations d'entrée au raisonnement logique formel.

En modélisation des circuits biologiques, ils permettent de tester quelques hypothèses fonctionnelles issues de la neurophysiologie, ou encore les conséquences de ces hypothèses pour les comparer au réel.

Théories

Les_reseaux_de_neurones_artificiels.pdf (Objet application/pdf) Math. Cours cognition individuelle et collective - Univ. Montpellier II. Resp: Jacques Ferber, Violaine Prince FMIN327 - Année 2009-2010 Ce cours porte sur une introduction aux problématiques de la cognition individuelle et collective. On mettra en avant d'une part les grandes démarches ayant abouti à différents modèles de cognition, et d'autre part l'importance de la prise en compte aussi bien des compétences individuelles que des phénomènes collectifs liés à l'interaction entre individus ayant certaines capacités cognitives.

On mettra plus particulièrement l'accent sur les théories modernes de la cognition de Piaget et Vigotsky à Varela et Maturana, en passant par Damasio, la théorie de l'action rationnelle et la théorie des jeux. On développera aussi les aspects du langage et de l'évolution individuelle et collective en parlant des travaux portant sur la mémétique, ceux de la Spirale Dynamique et ceux de Ken Wilber sur la pensée intégrale. Cours: Contenu Voici les "polys" de ce cours au format .pdf. Sujets d'exposés: Quelques sites intéressants: Mémétique. Un article de Wikipédia, l'encyclopédie libre. La mémétique utilise le concept de mème, pour étudier les évolutions de la culture avec une approche Darwinienne étendue.

Si la génétique se base sur le concept de gène, pour étudier la nature, la mémétique se base sur le concept de mème, pour étudier la culture. On y étudie le comportement des codes et schémas informationnels appelés mèmes, dans leurs milieux physico-chimiques et socio-culturels : l’homme, l’animal, la machine (tout support mémoriel). Le mème peut se définir comme un élément d'une culture pouvant être considéré comme transmis par des moyens non génétiques, en particulier par l'imitation[1]. Elle associe les sciences de autour de l'étude de l'évolution des phénomènes culturels dans le temps et l'espace physico-social, dans une approche culturo-centrée. Origine[modifier | modifier le code] Le mot mémétique a été formé dans les années 1980 à partir du terme mème.

L'approche d'Aaron Lynch est un exemple[2]. Certains[Qui ?] Memetique.