background preloader

People (histoire de l'informatique)

Facebook Twitter

Charles Babbage. Un article de Wikipédia, l'encyclopédie libre. Charles Babbage Charles Babbage en 1860. Charles Babbage, né le et mort le à Londres, est un mathématicien, inventeur, visionnaire britannique du XIXe siècle qui fut l'un des principaux précurseurs de l'informatique. Vers la fin de sa vie, il déclara qu'il aurait accepté une mort immédiate à condition de pouvoir passer trois jours, cinq cents ans plus tard, avec un guide scientifique pouvant lui expliquer toutes les inventions apparues depuis sa mort[1]. Il fut le premier à énoncer le principe d'un ordinateur. C'est entre 1847 et 1849 que Babbage entreprit d'utiliser les avancées technologiques de sa machine analytique pour concevoir les plans d'une deuxième machine à différences no 2 qui à spécifications égales demanda trois fois moins de pièces que la précédente. Biographie[modifier | modifier le code] Dès l'âge de 24 ans, il est élu membre à la Société Royale de Londres et à celle d'Édimbourg, en 1820.

Notes[modifier | modifier le code] L.F. Blaise Pascal. Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Pascal. Blaise Pascal Philosophe et scientifique Époque moderne À 19 ans[1], en 1642, il invente la calculatrice mécanique[2],[3] et après trois ans de développement et 50 prototypes, il la présente à ses contemporains en la dédiant au chancelier Séguier[4]. Dénommée machine d’arithmétique, puis roue pascaline et enfin pascaline, il en construisit une vingtaine d'exemplaires dans la décennie suivante[5].

Mathématicien de premier ordre, il crée deux nouveaux champs de recherche majeurs : tout d’abord il publie un traité de géométrie projective à seize ans ; ensuite il développe en 1654 une méthode de résolution du « problème des partis » qui, donnant naissance au cours du XVIIIe siècle au calcul des probabilités, influencera fortement les théories économiques modernes et les sciences sociales. Biographie[modifier | modifier le code] Jeunesse[modifier | modifier le code] T. En 1659, Pascal tombe sérieusement malade. Alan Turing. Alan Turing en 1936. Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l'on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle.

Son modèle a contribué à établir la thèse de Church, qui définit le concept mathématique intuitif de fonction calculable. Poursuivi en justice en 1952 pour homosexualité, il choisit, pour éviter la prison, la castration chimique par prise d'œstrogènes. Il est retrouvé mort par empoisonnement au cyanure le 8 juin 1954 dans la chambre de sa maison à Wilmslow. Biographie Enfance et jeunesse Cryptanalyse Mort. Claude Shannon. Un article de Wikipédia, l'encyclopédie libre. Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code] Shannon travaille vingt ans au MIT, de 1958 à 1978. Parallèlement à ses activités académiques, il travaille aussi aux laboratoires Bell de 1941 à 1972. Son œuvre[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l'armée américaine, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage.

Le schéma de Shannon[modifier | modifier le code] Modèle de Shannon - Communication. Pour décrire la communication entre machines, l'article de 1948 et le livre de 1949 commencent tous deux par un « schéma » qui connut dès lors une postérité étonnante en sciences de l'information et de la communication (SIC), au point que Shannon s'en étonna et s'en dissocia[réf. nécessaire]. Entropie = John Tukey. Un article de Wikipédia, l'encyclopédie libre. John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1].

Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree).

Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office . Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton. En 1950, il épouse Elizabeth Louise Rapp. Ses intérêts statistiques furent nombreux et variés.