background preloader

Complexité

Complexité
Un article de Wikipédia, l'encyclopédie libre. Illustration métaphorique de la complexité. Les objets (tuyaux) intègrent de nombreux facteurs (taille, diamètre, situation, interconnexion, robinets, ...), ce qui rend la compréhension ardue. La complexité est une notion utilisée en philosophie, épistémologie (par exemple par Anthony Wilden ou Edgar Morin), en physique, en biologie (par exemple par Henri Atlan), en écologie[1], en sociologie, en informatique ou en sciences de l’information. La complexité du point de vue de la théorie de l’information[modifier | modifier le code] Une notion de complexité est définie en Théorie algorithmique de l'information. Complexité algorithmique[modifier | modifier le code] La théorie de la complexité des algorithmes étudie formellement la difficulté intrinsèque des problèmes algorithmiques. Complexité de Kolmogorov[modifier | modifier le code] Autres complexités[modifier | modifier le code] Système complexe. Complication et complexité Portail de la physique Related:  Sciences cognitivesle logiciel des multiples et des communs ღ

Edgar Morin Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Morin. Edgar Morin Edgar Nahoum, dit Edgar Morin, né à Paris le 8 juillet 1921, est un sociologue et philosophe français. Biographie[modifier | modifier le code] Il s'intéresse très vite aux pratiques culturelles qui sont encore émergentes et mal considérées par les intellectuels : L'Esprit du temps (1960), La Rumeur d'Orléans (1969). Durant les années 1960, il part près de deux ans en Amérique latine où il enseigne à la Faculté latino-américaine des sciences sociales. Aujourd'hui directeur de recherche émérite au CNRS, Edgar Morin est docteur honoris causa de plusieurs universités à travers le monde. Il est membre du comité de parrainage de la Coordination française pour la Décennie de la culture de paix et de non-violence. Morin a écrit plusieurs ouvrages revenant sur son passé, dont Autocritique en 1959, Vidal et les siens sur son père en 1989 et Itinérance publié en 2006. Œuvre[modifier | modifier le code]

Tiers inclus Un article de Wikipédia, l'encyclopédie libre. La notion de Tiers inclus est propre à la Logique dynamique du Contradictoire de Stéphane Lupasco. Elle désigne le moment logique de la contradiction maximale ou, de façon immédiate, l'état le plus contradictoire de la matière-énergie (état T) : ce qui est en soi contradictoire. Tiers exclu ou Tiers inclus[modifier | modifier le code] Le Tiers inclus s'oppose au principe du tiers exclu de la logique "classique": dans une logique à deux valeurs (vrai ou faux), deux propositions contradictoires (p et ¬p) ne peuvent être vraies ensemble, mais elles ne peuvent non plus être fausses ensemble. La logique dynamique du contradictoire ne s'occupe pas particulièrement de propositions, susceptibles d'être vraies ou fausses, bien qu'elle puisse s'appliquer aussi à ce problème. Tiers inclus et complexité[modifier | modifier le code] Le principe du tiers exclu de la logique classique constitue un puissant garde-fou. Références[modifier | modifier le code]

Approche systémique L’approche systémique parfois nommée analyse systémique est un champ interdisciplinaire relatif à l'étude d'objets dans leur complexité. Pour tenter d'appréhender cet objet d'étude dans son environnement, dans son fonctionnement, dans ses mécanismes, dans ce qui n'apparait pas en faisant la somme de ses parties, cette démarche vise par exemple à identifier : la « finalité » du système (téléologie),les niveaux d'organisation,les états stables possibles,les échanges entre les parties,les facteurs d'équilibre et de déséquilibreles boucles logiques et leur dynamique, etc. Le plus souvent les principes sont utilisés sans être nommés, voire sans être identifiés. Histoire[modifier | modifier le code] On peut isoler des éléments fondateurs en distinguant leur façon d'aborder ce qui est analysé, par exemple : les principes internes qui constituent et le délimitent. Domaines d’application[modifier | modifier le code] L'approche systémique : un « savoir-être »[modifier | modifier le code] m:systemes

Constructivisme (épistémologie) Un article de Wikipédia, l'encyclopédie libre. Chantier de construction. Le constructivisme présente les connaissances humaines comme des constructions (p. ex. : des "construits sociaux") et non comme le reflet fidèle de la réalité (tel qu'envisagé par le positivisme). Le constructivisme, en épistémologie, est une approche de la connaissance reposant sur l'idée que notre image de la réalité, ou les notions structurant cette image, sont le produit de l'esprit humain en interaction avec cette réalité, et non le reflet exact de la réalité elle-même. Pour Jean-Michel Besnier, le constructivisme désigne d'abord « la théorie issue de Kant selon laquelle la connaissance des phénomènes résulte d'une construction effectuée par le sujet »[1], ensuite il note qu'en un sens voisin « les travaux de Jean Piaget ont mis en lumière (...) les opérations de l'intelligence dont résultent les représentations du monde ».

Théorie algorithmique de l'information Un article de Wikipédia, l'encyclopédie libre. La Théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou - à l'inverse -, qu'un objet contient d'autant plus d'informations que sa description est longue. Ces fondements sont différents de ceux de la théorie de l'information de Shannon : cette dernière n'utilise pas la notion de calculabilité et n'a de sens que par rapport à un ensemble statistique de données. Présentation informelle[modifier | modifier le code] D1 : "un mur tout blanc de 1 m sur 1 m." Voir aussi[modifier | modifier le code]

Épistémologie complexe Un article de Wikipédia, l'encyclopédie libre. Le terme Épistémologie complexe est employé par Edgar Morin dans son œuvre, particulièrement dans le tome 3 de La Méthode intitulé La Connaissance de la connaissance. Définition[modifier | modifier le code] L'épistémologie complexe que propose Edgar Morin vise à dépasser l'épistémologie classique. Contrairement à l'épistémologie classique, l'épistémologie complexe n'a pas de fondement, au sens littéral, cette métaphore empruntée à la construction étant trompeuse. Bibliographie[modifier | modifier le code] Edgar Morin, La Méthode, La Connaissance de la connaissance (t. 3), Le Seuil, Nouvelle édition, coll. Voir aussi[modifier | modifier le code] Liens internes[modifier | modifier le code] Portail de la philosophie

Système complexe Un article de Wikipédia, l'encyclopédie libre. Ainsi une réaction chimique, comme la dissolution d'un grain de sucre dans du café, est simple car on connaît à l'avance le résultat : quelques équations permettent non seulement de décrire les processus d’évolution, mais les états futurs ou final du système. Il n'est pas nécessaire d'assister au phénomène concret ou de réaliser une expérience pour savoir ce qui va se résulter en réalité. Au contraire, les cellules nerveuses de notre cerveau, une colonie de fourmis ou les agents qui peuplent un marché économique sont autant de systèmes complexes car le seul moyen de connaître l'évolution du système est de faire l'expérience, éventuellement sur un modèle réduit. En d'autre termes, lorsque l'on veut modéliser un système, on conçoit un certain nombre de règles d'évolution, puis l'on simule le système en itérant ces règles jusqu'à obtenir un résultat structuré. Du fait de la diversité des systèmes complexes, leur étude est interdisciplinaire.

Complexité de Kolmogorov Un article de Wikipédia, l'encyclopédie libre. Présentation informelle[modifier | modifier le code] Considérons une machine informatique pouvant exécuter des programmes. On dit que cette machine est universelle lorsqu’elle peut émuler n'importe quelle autre machine informatique. On note l'ensemble des programmes écrits pour la machine . , on note sa longueur en nombre d’instructions pour la machine et sa sortie. , ou complexité algorithmique, d’une suite finie de caractères pour une machine est définie par : C’est donc la longueur du plus petit programme écrit pour la machine qui génère la suite . Reste à savoir dans quelle mesure la fonction dépend de la machine , car on peut tout à fait imaginer une machine possédant des instructions simples pour générer certaines suites complexes. (souvent qualifiée d'additivement optimale) telle que pour toute machine il existe une constante vérifiant pour toute suite l'inégalité Intuitivement, , du langage utilisé par la machine . ou Portail de l'informatique théorique

IGD L’accroissement important des moyens de communication et la mondialisation des échanges nous immergent dans un univers dont le bouillonnement n’a plus rien à voir avec celui d’autrefois. Le besoin de se repérer pour agir, dans un monde où le nombre des interactions et des interdépendances entre les différents acteurs augmente sans cesse, conduit à rechercher des outils conceptuels nouveaux, tant de phénomènes se montrant rebelles aux interprétations courantes . Les modèles les plus répandus, ceux issus de la pensée mathématique comme ceux issus des sciences humaines, apportent aujourd’hui difficilement les réponses à des questions telles que la place et le rôle de l’entreprise dans un contexte socio-économique élargi.Même l’appréhension d’un concept tel que le travail se trouve aujourd’hui privé d’interprétations fédératrices. Toute approche philosophique devrait se situer par rapport à la question fondamentale du sens, donc de l’existence et de la nature de la finalité.

Related: