background preloader

Complexité

Complexité
Un article de Wikipédia, l'encyclopédie libre. Illustration métaphorique de la complexité. Les objets (tuyaux) intègrent de nombreux facteurs (taille, diamètre, situation, interconnexion, robinets, ...), ce qui rend la compréhension ardue. La complexité est une notion utilisée en philosophie, épistémologie (par exemple par Anthony Wilden ou Edgar Morin), en physique, en biologie (par exemple par Henri Atlan), en écologie[1], en sociologie, en informatique ou en sciences de l’information. La définition connaît des nuances importantes selon ces différents domaines. La complexité du point de vue de la théorie de l’information[modifier | modifier le code] Une notion de complexité est définie en Théorie algorithmique de l'information. Complexité algorithmique[modifier | modifier le code] La théorie de la complexité des algorithmes étudie formellement la difficulté intrinsèque des problèmes algorithmiques. Complexité de Kolmogorov[modifier | modifier le code] Système complexe. Portail de la physique

http://fr.wikipedia.org/wiki/Complexit%C3%A9

Related:  Sciences cognitivesle logiciel des multiples et des communs ღ

Mème Un article de Wikipédia, l'encyclopédie libre. Pour l'article concernant les phénomènes Internet, voir Mème Internet. Un mème (de l'anglais meme ; calqué sur gène, sans rapport et à ne pas confondre avec le français même) est un élément culturel reconnaissable répliqué et transmis par l'imitation du comportement d'un individu par d'autres individus. L'Oxford English Dictionary définit le meme comme « un élément d'une culture (prise ici au sens de civilisation) pouvant être considéré comme transmis par des moyens non génétiques, en particulier par l'imitation »[1]. L'étude des mèmes a donné naissance à un nouveau discours : la mémétique. Définition[modifier | modifier le code]

Théorie algorithmique de l'information Un article de Wikipédia, l'encyclopédie libre. La Théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou - à l'inverse -, qu'un objet contient d'autant plus d'informations que sa description est longue. La théorie algorithmique de l'information est fondée sur cette équivalence : la description d'un objet est formalisée par un algorithme d'une machine de Turing, et sa complexité, ou son contenu en information, est alors formalisé par certaines caractéristiques de l'algorithme : sa longueur ou son temps de calcul. Portail de l'informatique théorique

Caractère phénotypique Un article de Wikipédia, l'encyclopédie libre. Un caractère, pour un organisme vivant, est un de ses aspects anatomique, physiologique, moléculaire ou comportemental, qui peut-être analysé (par exemple : la présence de cheveux). L'ensemble des caractères d'un organisme vivant constitue son phénotype, par opposition au génotype qui décrit les informations génétiques de cet organisme, héritées de ses parents.

Système dynamique Un article de Wikipédia, l'encyclopédie libre. En mathématiques, en physique théorique et en ingénierie, un système dynamique est un système classique[1] qui évolue au cours du temps de façon à la fois : On exclut donc ici conventionnellement les systèmes « bruités » intrinsèquement stochastiques, qui relèvent de la théorie des probabilités. L'évolution déterministe du système dynamique peut alors se modéliser de deux façons distinctes : une évolution continue dans le temps, représentée par une équation différentielle ordinaire.

Caractère (psychologie) Un article de Wikipédia, l'encyclopédie libre. Le caractère d'une personne résume la manière dont cette personne réagit habituellement dans une situation donnée. On dit alors qu'elle possède tel ou tel trait de caractère. Par exemple, on dit d'une personne qui aime faire plaisir aux autres qu'elle est généreuse, altruiste. Attracteur Un article de Wikipédia, l'encyclopédie libre. Représentation visuelle d'un attracteur étrange Définition[modifier | modifier le code] L'attracteur futur est le plus petit ensemble contenant tous les ensembles ω(x) si x décrit Ω, à l'exception, peut-être d'un ensemble de mesure nulle.

Constructivisme (psychologie) Un article de Wikipédia, l'encyclopédie libre. Le constructivisme, théorie de l’apprentissage, a été développé, entre autres, par Piaget, dès 1923, en réaction au behaviorisme qui, d’après lui, limitait trop l’apprentissage à l’association stimulus-réponse. L’approche constructiviste met en avant l’activité et la capacité inhérentes à chaque sujet, ce qui lui permet d’appréhender la réalité qui l’entoure[1]. Le constructivisme suppose que les connaissances de chaque sujet ne sont pas une simple « copie » de la réalité, mais une « (re)construction » de celle-ci.

Théorie du chaos Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Chaos. La théorie du chaos traite des systèmes dynamiques rigoureusement déterministes, mais qui présentent un phénomène fondamental d'instabilité appelé « sensibilité aux conditions initiales » qui, modulo une propriété supplémentaire de récurrence, les rend non prédictibles en pratique à « long » terme. LE CONSTRUCTIVISME Le constructivisme a pris son essor en réaction au behaviorisme qui limitait trop l'apprentissage à l'association stimulus-réponse. L'approche constructiviste de l'apprentissage met l'accent sur l'activité du sujet pour appréhender les phénomènes. La compréhension s'élabore à partir des représentations que le sujet a déjà.

Related: