background preloader

Holisme

Facebook Twitter

Holisme. Holisme (du grec ancien ὅλος / hólos signifiant « entier ») est un néologisme forgé en 1926 par l'homme d'État sud-africain Jan Christiaan Smuts pour son ouvrage Holism and Evolution[1]. Selon son auteur, le holisme est « la tendance dans la nature à constituer des ensembles qui sont supérieurs à la somme de leurs parties, au travers de l'évolution créatrice[1] ». Le holisme se définit donc globalement par la pensée qui tend à expliquer un phénomène comme étant un ensemble indivisible, la simple somme de ses parties ne suffisant pas à le définir. De ce fait, la pensée holiste se trouve en opposition avec la pensée réductionniste qui tend à expliquer un phénomène en le divisant en parties.

Différentes acceptions[modifier | modifier le code] Histoire[modifier | modifier le code] Antiquité[modifier | modifier le code] XXe siècle[modifier | modifier le code] Holisme est un terme nouveau introduit dans les années 1920. Jan Christiaan Smuts[modifier | modifier le code] Le holisme de J. « M. Approche systémique. L’approche systémique parfois nommée analyse systémique est un champ interdisciplinaire relatif à l'étude d'objets dans leur complexité.

Pour tenter d'appréhender cet objet d'étude dans son environnement, dans son fonctionnement, dans ses mécanismes, dans ce qui n'apparait pas en faisant la somme de ses parties, cette démarche vise par exemple à identifier : la « finalité » du système (téléologie),les niveaux d'organisation,les états stables possibles,les échanges entre les parties,les facteurs d'équilibre et de déséquilibreles boucles logiques et leur dynamique, etc. Le plus souvent les principes sont utilisés sans être nommés, voire sans être identifiés. Les terminologies « approche systémique » et « analyse systémique » sont donc employées plus couramment dans certains domaines d'application que dans d'autres, pour y faire expressément référence, mais il existe bien une unité dont on peut identifier les articulations historiques[1]. Histoire[modifier | modifier le code] m:systemes. Complexité. Un article de Wikipédia, l'encyclopédie libre.

Illustration métaphorique de la complexité. Les objets (tuyaux) intègrent de nombreux facteurs (taille, diamètre, situation, interconnexion, robinets, ...), ce qui rend la compréhension ardue. La complexité est une notion utilisée en philosophie, épistémologie (par exemple par Anthony Wilden ou Edgar Morin), en physique, en biologie (par exemple par Henri Atlan), en écologie[1], en sociologie, en informatique ou en sciences de l’information. La définition connaît des nuances importantes selon ces différents domaines. La complexité du point de vue de la théorie de l’information[modifier | modifier le code] Une notion de complexité est définie en Théorie algorithmique de l'information.

Complexité algorithmique[modifier | modifier le code] La théorie de la complexité des algorithmes étudie formellement la difficulté intrinsèque des problèmes algorithmiques. Complexité de Kolmogorov[modifier | modifier le code] Système complexe. Portail de la physique. Théorie de la complexité des algorithmes. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée …) requis par un algorithme pour résoudre un problème algorithmique. Il s'agit donc d'étudier la difficulté intrinsèque des problèmes, de les organiser par classes de complexité et d'étudier les relations entre les classes de complexité.

Le problème de voyageur de commerce : calculer un plus court circuit qui passe une et une seule fois par toutes les villes (ici 15 villes). Considérons l'exemple du problème du voyageur de commerce. La donnée du problème est un ensemble de villes et de distances séparant ces villes. L'objectif du problème est de trouver un plus court circuit qui passe une et une seule fois par toutes les villes.

La théorie de la complexité étudie principalement (mais pas uniquement) les problèmes de décision. Complexité de Kolmogorov. Un article de Wikipédia, l'encyclopédie libre. Présentation informelle[modifier | modifier le code] Considérons une machine informatique pouvant exécuter des programmes. On dit que cette machine est universelle lorsqu’elle peut émuler n'importe quelle autre machine informatique. La machine de Turing universelle en est un exemple. On note l'ensemble des programmes écrits pour la machine.

. , on note sa longueur en nombre d’instructions pour la machine et sa sortie. . , ou complexité algorithmique, d’une suite finie de caractères pour une machine est définie par : C’est donc la longueur du plus petit programme écrit pour la machine qui génère la suite . Reste à savoir dans quelle mesure la fonction dépend de la machine , car on peut tout à fait imaginer une machine possédant des instructions simples pour générer certaines suites complexes. (souvent qualifiée d'additivement optimale) telle que pour toute machine il existe une constante vérifiant pour toute suite l'inégalité Intuitivement, . Ou. Machine de Turing. Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Turing.

Vue d’artiste d’une Machine de Turing (sans la table de transition). Une machine de Turing est un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tel un ordinateur et sa mémoire. Ce modèle a été imaginé par Alan Turing en 1936, en vue de donner une définition précise au concept d’algorithme ou de « procédure mécanique ». La thèse de Church postule que tout problème de calcul fondé sur une procédure algorithmique peut être résolu par une machine de Turing.

À l'origine, le concept de machine de Turing, inventé avant l'ordinateur, était censé représenter une personne virtuelle exécutant une procédure bien définie, en changeant le contenu des cases d'un tableau infini, en choisissant ce contenu parmi un ensemble fini de symboles. Définition[modifier | modifier le code] Une machine de Turing comporte les éléments suivants : un ruban divisé en cases consécutives.

Où , elle écrit (fr) O. Calculabilité. Un article de Wikipédia, l'encyclopédie libre. Qu'est-ce qu'une fonction calculable ? [modifier | modifier le code] Intuitivement, une fonction est calculable s'il existe une méthode précise qui, étant donné un argument , permet d'obtenir l'image en un nombre fini d'étapes. La thèse de Church énonce que les définitions mathématiques équivalentes ci-dessus capturent bien le concept intuitif de méthode de calcul fonctionnant en temps fini. Existence de fonctions non calculables[modifier | modifier le code] Il peut être démontré qu'il existe des fonctions f qui sont incalculables, c’est-à-dire dont, étant donné x, la valeur f(x) ne peut être calculée en un temps fini par aucun algorithme que l'on aurait associé à f.

On connaît de nombreux exemples explicites de fonctions incalculables. Modèles de calcul[modifier | modifier le code] Plusieurs modèles de calcul sont utilisés en calculabilité : Notes[modifier | modifier le code] Références[modifier | modifier le code] Sur les autres projets Wikimedia :