background preloader

Le modèle d’architecture de von Neumann

Le modèle d’architecture de von Neumann
Le tableau de ce qu’en 1945 on n’appelait pas encore l’informatique présente un paysage contrasté. D’un côté, la notion de calcul effectif a trouvé un cadre rigoureux grâce aux avancées d’une discipline nouvelle née dans les années 1930, la méta-mathématique. Le lambda-calcul du mathématicien Alonzo Church et la machine universelle (abstraite) d’Alan Turing, schémas dont Turing a montré l’équivalence, sont proposés en 1936 comme base de définition de l’algorithme, pièce maîtresse du processus calculatoire. D’un autre côté, plusieurs tentatives indépendantes visent à construire des machines électroniques ou électro-mécaniques capables d’exécuter des calculs complexes à grande vitesse. Les précurseurs en sont John Atanasoff en 1938 aux États-Unis et Konrad Zuse en 1941 en Allemagne. À gauche, John W. Ces deux courants, celui des mathématiciens et logiciens d’une part, et celui des ingénieurs d’autre part, sont issus de deux mondes séparés et s’ignorent mutuellement. Naissance du modèle

https://interstices.info/le-modele-darchitecture-de-von-neumann/

Related:  1ere NSIOrdinateursNumérique et sciences informatiqueshistoire

Le principe de l'architecture von Neumann ou les débuts de l'informatique - Vidéo En 1945, von Neumann rédige le principe de l'architecture von Neumann : c'est celle de la totalité des ordinateurs aujourd'hui, une mémoire, un système central de calcul, une unité d'assemblage des données. Le mathématicien Alan turing avait prouvé que toute la réalité du monde y compris l'univers et ses lois pouvaient se décrire, se coder sous forme de 0 et de 1, imprimés sur un simple rouleau de papier. Pendant la Seconde Guerre mondiale, Von Neumann qui travaillait sur la bombe H, a participé à l'élaboration des premiers calculateurs électroniques. Lienac construit par l'armée américaine pour calculer des tables de projectiles n'était pas tout à fait un ordinateur, même s'il possédait une mémoire et qu'on pouvait le reprogrammer en branchant ou en débranchant des fiches.

La Nasa réinvente les tubes à vide Avant le transistor, ce composant électronique qui a révolutionné le monde, il y avait le tube à vide. Gourmands en énergie, dégageant une forte chaleur, peu fiables et prenant une place considérable, ces tubes ont formé les unités de calcul des premiers ordinateurs et furent à ce titre les précurseurs de l'informatique moderne. Mais cette technologie devenue marginale pourrait revenir sur le devant de la scène grâce à la Nasa. L'histoire du génial mathématicien méconnu qui influa sur le XXe siècle Temps de lecture: 6 min Enfant précoce, esprit trop brillant pour son siècle, le personnage de John von Neumann est, 60 ans après sa mort, le sujet d’un documentaire diffusé sur Arte le 14 février dernier. Von Neumann est issu de la haute-bourgeoisie juive de Budapest. Son père a été anobli en 1913 pour services rendus à la monarchie.

Histoire des ordinateurs L'histoire des ordinateurs commence au milieu du XXe siècle. Si les premiers ordinateurs ont été réalisés après la Seconde Guerre mondiale, leur conception héritait de diverses expériences comme l'Harvard Mark I et le Z3, machines électromécaniques programmables commencées en 1939, et surtout de deux calculateurs électroniques : le Colossus du service de cryptanalyse britannique en 1943, l'ENIAC en 1945. À l'arrière-plan on peut mentionner des théories comme la « machine de Turing », ou des combinaisons de techniques bien plus anciennes comme les premières machines à calculer mécaniques (XVIIe siècle) et les premières machines à tisser automatisées par la lecture de cartes et de rubans perforés (XVIIIe siècle). Précurseurs[modifier | modifier le code] Premiers outils de calcul[modifier | modifier le code] Calculateurs analogiques[modifier | modifier le code]

Biographie de John Von Neumann John Von Neumann est loin d'être l'icone du savant romantique et torturé. Il était au contraire un chercheur accompli, à la vie sociale réussie, aux convictions politiques bien établies : il n'était pas révolutionnaire, et participa activement à l'effort de guerre des Etats-Unis. Janos Neumann (il ne se fera appeler John Von Neumann qu'après 1937 et sa naturalisation américaine) naît le 28 décembre 1903 à Budapest. Il est le 3ème fils d'un des plus riches banquiers de Hongrie, et vit dans un milieu intellectuel particulièrement stimulant : les plus grands scientifiques, les écrivains les plus réputés fréquentent le salon de ses parents. Il dispose de dons exceptionnels pour l'apprentissage, qu'il emploie pour des passions aussi variées que l'histoire (il lit les 44 volumes de l'encyclopédie d'histoire contemporaine de la bibliothèque de ses parents), les langues ou les mathématiques. En 1929, peu avant de partir aux Etats-Unis, Von Neumann épouse Mariette Kosevy.

MICRAL N Dans une jeune entreprise de la banlieue parisienne, la société R2E (Réalisations Études électroniques), dirigée par André Truong, le Français François Gernelle construit, autour du microprocesseur Intel 8008, un petit ordinateur, en réponse à un appel d'offres de l'Institut national de la recherche agronomique. Deux brevets mondiaux sont déposés en 1973 par cette société. R2E commercialise la machine sous le nom de Micral (puis Micral N), au prix public de 8 500 francs. Cinq cents commandes sont enregistrées en un an, essentiellement un marché de calculateurs industriels où le Micral, robuste et fiable, remplace un mini-ordinateur pour un cinquième du prix. R2E présentera des versions successives du Micral, de plus en plus puissantes, bientôt orientées vers la gestion, avec écran, clavier et disque dur dès 1975.

John Von Neumann - Mathématicien, physicien, informaticien John Von Neumann né Neumann Lajos le 28 décembre 1903 en Autriche Hongrie il meurt d'un cancer le 8 février 1957 aux USA. Enfant prodige ses contributions en mathématique pures et appliquées sont considérables. Albert Einstein, dont il était le collègue à Princeton, le considérait comme un extraterrestre et Jean Dieudonné, le mathématicien phare du groupe Bourbaki, comme l'analyste le plus profond du XX ième siècle. Son palmarès est en effet impressionnant. Théorie des ensembles et logique mathématique :

Des machines enfin intelligentes ? L’homme sait L’ordinateur ne sait rien Comment est-il possible que d’un ensemble de messages physico-chimiques, aussi aveugles que les zéros et 1 en informatique, émerge une conscience ? Nous sommes conscients de nous-même, c’est le moi, et conscients d’être conscients. Nous savons que nous savons ce que nous savons. Un ordinateur sait puisqu’il a stocké en mémoire des millions d’informations. La loi de Moore définie simplement Entre 1965 et 2017, le nombre de transistors par puce de silicium a doublé à peu près tous les 18 mois à coût constant, comme l'avait prédit Gordon E. Moore, l'un des trois fondateurs d'Intel. Qu'est-ce que la Loi de Moore ? La loi de Moore est empirique et issue de constatations faites par Gordon E. Moore. En 1965, celui qui fut l'un des cofondateurs de la société Intel trace une courbe d'évolution de la taille et du prix des microprocesseurs.

Obsolescence Programmée - concepts, exemples et actualités Quelques hommes et femmes qui ont pensé, étudié ou dénoncé l’obsolescence programmée et les modèles qui s’y rattachent… 1925 : Stuart Chase anticipe son époque avec « La Tragédie des déchets »Economiste et ingénieur américain formé au MIT, Stuart Chase fut conseiller du président Roosevelt et père du concept de New Deal. Il fût également visionnaire en décrivant dès 1925, dans son livre « La Tragédie des déchets », l’obsolescence programmée, la publicité trompeuse et la toute puissante consommation qui symboliseront le 20ème siècle. 1932 : Bernard London nomme le concept d’obsolescence programméeDans son livre Ending the Depression Through Planned Obsolescence, Bernard London, promoteur américain, défend le concept d’une obsolescence légale imposée par le gouvernement pour les biens de consommation afin de stimuler et maintenir la consommation.

Trois mille ans d’informatique L’informatique aussi a son histoire. Des premières « tablettes numériques » sumériennes aux objets connectés, un ouvrage parcourt en images les évolutions techniques de ces machines à calculer qui ont révolutionné nos sociétés. Pierre Mounier-Kuhn, vous êtes chargé de recherche en histoire à la Sorbonne1 et au Centre Alexandre-Koyré2, et vous publiez avec Emmanuel Lazard, maître de conférences en informatique à l’université Paris-Dauphine, une Histoire illustrée de l’informatique. Comment replacez-vous la discipline informatique dans un cadre historique ?Pierre Mounier-Kuhn : Marginale jusqu’au milieu du XXe siècle, l’informatique est aujourd’hui devenue un phénomène historique massif : à la fois l’une des plus puissantes industries mondiales et une discipline scientifique bien établie. Notre ouvrage vise d’abord à partager la richesse de cette histoire, qui remonte à la machine d’Anticythère, voire aux premiers chiffres écrits à Sumer.

Related: