
Principe de Peter Un article de Wikipédia, l'encyclopédie libre. Le principe de Peter, également appelé « syndrome de la promotion Focus », est une loi empirique relative aux organisations hiérarchiques proposée par Laurence J. Peter et Raymond Hull dans l'ouvrage Le Principe de Peter (1970)[1]. Selon ce principe, « dans une hiérarchie, tout employé a tendance à s'élever à son niveau d'incompétence » avec le corollaire qu'« Avec le temps, tout poste sera occupé par un employé incapable d'en assumer la responsabilité. » L'ouvrage de Peter et Hull est rédigé sur un ton satirique mais le principe qu'il expose a fait l'objet d'études universitaires étudiant sa validité par la modélisation ou par la confrontation à des cas réels, certaines concluant à sa validité complète ou partielle. Présentation de la thèse[modifier | modifier le code] Explication du principe[modifier | modifier le code] Ces dernières hypothèses ne sont qu'une interprétation non systématiquement retenue du principe de Peter. ↑ Laurence J.
Go!Zilla: GoZilla Download Manager and Accelerator Loi de Hofstadter Un article de Wikipédia, l'encyclopédie libre. La loi de Hofstadter (ou Loi de glissement de planning) est une loi empirique concernant la difficulté de la planification dans le domaine de la recherche et du développement. Elle est régulièrement constatée dans le domaine du développement de logiciel. Elle affirme : « Il faut toujours plus de temps que prévu, même en tenant compte de la Loi de Hofstadter. » Cette loi a été énoncée par l'universitaire américain Douglas Hofstadter dans son œuvre-phare, Gödel, Escher, Bach : Les Brins d'une Guirlande Éternelle (1979, Prix Pulitzer en 1980). Dans le domaine du génie logiciel, la méthode d'extreme programming tente de prendre en compte la difficulté évoquée par la loi de Hofstadter. Cette loi fut initialement en relation avec les ordinateurs jouant aux échecs, où les meilleurs joueurs battaient toujours les machines, même si les machines surpassaient les joueurs dans l'analyse récursive. Voir aussi[modifier | modifier le code]
Programme réalisé - 2 Règle de Taylor Un article de Wikipédia, l'encyclopédie libre. La Règle de Taylor est une règle moderne de politique monétaire, énoncée en premier lieu par l’économiste John B. Taylor, en 1993. Elle relie le taux d'intérêt décidé par la banque centrale au taux d'inflation de l'économie et à l’écart entre le niveau du PIB et son niveau potentiel : avec le taux directeur fixé par la banque centrale à l’instant le taux d'inflation, la cible d'inflation de la banque centrale, le taux d'intérêt réel à l’instant et les niveaux respectifs du PIB et du PIB potentiel, et des coefficients. Les coefficients sont soit calibrés, soit déterminés économétriquement par les économistes des banques centrales, pour la zone monétaire concernée ; l’équation de Taylor (ou bien une de ses variantes) permet alors de calculer la valeur optimale à fixer pour le principal taux directeur de la banque centrale, ce dernier ayant une grande influence sur les taux d’intérêt de la zone économique. Interprétation[modifier | modifier le code] ).
Programme réalisé - 9 Loi de Brooks Un article de Wikipédia, l'encyclopédie libre. La loi de Brooks — d'après Frederick Brooks — est une prédiction sur la productivité des projets informatiques : « Ajouter des personnes à un projet en retard accroît son retard » (formulation originale : « Adding manpower to a late software project makes it later »). Le postulat est que la plupart des tâches ne sont pas partitionnables et que les nouveaux arrivants vont faire perdre du temps aux équipes en place en temps de communication.
introduction) Dernière mise à jour de cette page: 2014-04-06 20:47:57 Version: 3.1 Révision 13 | Rédacteur: Vincent ISOZ | Avancement: ~99% vues depuis le 2012-01-01: 0 Aucune aventure humaine n'a eu plus d'impact que la science sur nos vies et notre conception du monde et de nous-mêmes. Ses théories, ses conquêtes et ses résultats sont tout autour de nous. À ce titre, ancien étudiant dans le domaine de l'ingénierie, j'ai souvent regretté l'absence d'un ouvrage unique assez complet, détaillé (sans aller dans l'extrême des puristes...) et pédagogique si possible gratuit (!) et portatif (étant personnellement un adepte des liseuses électroniques...) contenant au moins une idée non exhaustive de l'ensemble du programme de mathématique appliquée des écoles d'ingénieurs et présentant une vue d'ensemble de ce qui est utilisé dans la réalité des entreprises avec des démonstrations plus intuitives que rigoureuses mais avec suffisamment de détails afin d'éviter au lecteur des efforts inutiles. Remarques: R1.
Loi de Parkinson Un article de Wikipédia, l'encyclopédie libre. La loi de Parkinson pose que tout travail au sein d'une administration augmente jusqu’à occuper entièrement le temps qui lui est affecté. Elle concerne en particulier la multiplication inéluctable des fonctionnaires, et a d’abord été publiée par Cyril Northcote Parkinson le 19 novembre 1955 dans un article publié dans la revue The Economist et reprise ensuite avec neuf autres articles du même auteur dans un ouvrage intitulé Parkinson’s Law And Other Studies In Administration aux éditions The Riverside Press, en 1957. Contrairement à une idée très répandue, la loi de Parkinson n'est pas la définition de l’état gazeux ou loi des gaz appliquée au monde du travail. Causes[modifier | modifier le code] C. 1) La loi des gaz appliquée au travail : cet élément permet à C. 2) Les deux forces qui dictent le comportement des fonctionnaires, et que la longue expérience de C. En pourcentage cela donne la formule : Bibliographie[modifier | modifier le code]
Elegant Coding: Eleven Equations True Computer Science Geeks Should (at Least Pretend to) Know This idea is a complete rip off an article that appeared in Wired a little while ago and it got me thinking what would my list for Computer Science look like? Plus I thought it might be a fun post and unlike the Wired list this one goes to eleven. So here they are in no particular order: Binomial Coefficient The Binomial Coefficient equation generates Pascal’s Triangle and gives you the coefficients for the Binomial Theorem these ideas are often attributed to Pascal but in fact they have been known in part for over a millennia. As I mentioned that this list is no particular order and I don’t wish to play favorites but if there is one equation here that you should really consider learning and committing to memory this is it. Demorgan’s Laws Logical form: Set Form: Eigenvector and Eigenvalue Pumping Lemma for Regular Languages No Comp Sci list would be complete with at least one formula from either Formal Language Theory or Automata Theory. Information Entropy Bayes' Theorem Natural Join O(n)
Loi de Murphy Un article de Wikipédia, l'encyclopédie libre. Selon une variante plus détaillée du même adage : « S'il existe au moins deux façons de faire quelque chose et qu'au moins l'une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu'un quelque part pour emprunter cette voie ». On peut interpréter cette loi de deux manières : l'une, humoristique, est de prendre cette loi à la lettre, et de l'ériger en principe de pessimisme. Vue sous cet angle, la loi de Murphy est le constat, élevé au rang de principe fondamental de l'univers, que « le pire est toujours certain ». Familièrement, cette loi est aussi appelée « loi de l'emmerdement maximum » (LEM)[1] ou « loi de la vexation universelle ». L'autre vision consiste à voir la loi de Murphy comme une règle de conception : on ne considère pas la loi de Murphy comme vraie, mais on conçoit tout système comme si la loi était vraie. Énoncés[modifier | modifier le code] — version d'Edward Murphy[2] — version de George Nichols[2]
Diagramme de Pareto Le diagramme de Pareto est un outil graphique d’analyse, de communication et de prise décision très efficace. Il se présente sous la forme d’un histogramme trié avec superposition d'une courbe de cumul. Le diagramme de Pareto se présente sous la forme d’un histogramme de distribution, dont les plus grandes colonnes, celles qui représentent les occurrences les plus fréquentes, sont conventionnellement placées à gauche et vont décroissant vers la droite. Une ligne de cumul indique l’importance relative cumulée des colonnes. On discrimine ainsi aisément les quelques causes essentielles parmi les nombreuses triviales . La popularité des diagrammes de Pareto est due au fait que de nombreux phénomènes observés obéissent à la loi des 20/80, qui stipule que 20 % des causes possibles produisent à elles seules 80 % des effets. Les illustrations de l'utilisation des diagrammes de Pareto sont aussi nombreuses que variées, citons à titre d'exemples :