background preloader

Claude Shannon

Claude Shannon
Un article de Wikipédia, l'encyclopédie libre. Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code] Shannon travaille vingt ans au MIT, de 1958 à 1978. Son œuvre[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l'armée américaine, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage. Le schéma de Shannon[modifier | modifier le code] Modèle de Shannon - Communication. Pour décrire la communication entre machines, l'article de 1948 et le livre de 1949 commencent tous deux par un « schéma » qui connut dès lors une postérité étonnante en sciences de l'information et de la communication (SIC), au point que Shannon s'en étonna et s'en dissocia[réf. nécessaire]. Ce schéma est la traduction « civile » d'un schéma préalable, utilisé dans le contexte militaire : Entropie = Related:  Claude Shannon (20è), le père du binaireEn lien avec le thème 1

Biographie de Claude Shannon Claude Shannon est un ingénieur électricien et un mathématicien du XXiè siècle, souvent considére comme le père de la théorie de l'information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l'université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology). En 1941, il est embauché dans les laboratoires de la compagnie de téléphone AT&T Bell. Shannon travaille aux laboratoires de Bell jusqu'en 1971. la théorie de la transmission des signaux; Shannon comprend que toute donnée, même la voix ou des images, peut se transmettre à l'aide d'une suite de 0 et de 1 (les bits), ouvrant la voie aux communications numériques et non plus analogiques. Les entrées du Dicomaths correspondant à Shannon

John Tukey John Wilder Tukey (16 juin 1915-26 juillet 2000) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] John Tukey naît en 1915, à New Bedford (Massachusetts), dans une ville de pêcheurs sur la côte du New Jersey. Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree). Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office. Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton.

John Tukey Un article de Wikipédia, l'encyclopédie libre. John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree). Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office . Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton. En 1950, il épouse Elizabeth Louise Rapp. Ses intérêts statistiques furent nombreux et variés.

shannon - sa vie - biographie Pour numériser un signal, la fréquence d'échantillonnage (sampling rate) doit être suffisamment grande pour restituer intégralement le signal. Le théorème de Nyquist-Shannon dit que, pour respecter le signal-source, cette fréquence doit être au moins le double de celle de la plus grande fréquence rencontrée dans le signal à échantillonner. Un tel échantillonnage permet en théorie une reconstruction parfaite du signal-source Pour la musique, dont l'oreille ne perçoit pas les fréquences au-delà de 22 kHz (pour être large), une fréquence d'échantillonnage de 44 kHz est en théorie suffisante. La fréquence d'échantillonnage d'un CD audio est normalisée à 44,1 kHz. Pour le téléphone, la voix ne nécessite que 4 kHz et un échantillonnage à 8 kHz est suffisant.

Werner Buchholz Werner Buchholz (24 October 1922 – 11 July 2019) was a German-American computer scientist. After growing up in Europe, Buchholz moved to Canada and then to the United States of America. He worked for International Business Machines (IBM) in New York. In June 1956, he coined the term "byte" for a unit of digital information.[1][2][3] In 1990, he was recognized as a computer pioneer by the Institute of Electrical and Electronics Engineers. Biography[edit] Early life[edit] Werner Buchholz was born on 24 October 1922 in Detmold, Germany. Because of the threat of invasion in May 1940, Werner with other refugee students was interned by the British and later sent to Canada. Career[edit] In 1990, Buchholz received the IEEE Computer Pioneer Award, awarded since 1981 to recognize and honor individuals whose effort resulted in the creation and vitality of the computer industry. Personal life[edit] See also[edit] Notes[edit] References[edit]

Alan Turing Alan Turing en 1936. Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l'on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle. Son modèle a contribué à établir la thèse de Church, qui définit le concept mathématique intuitif de fonction calculable. Poursuivi en justice en 1952 pour homosexualité, il choisit, pour éviter la prison, la castration chimique par prise d'œstrogènes. Biographie Enfance et jeunesse Ses parents l'inscrivent à l'école St. Études supérieures et travaux sur la calculabilité Cryptanalyse Codage de la voix Mort

Claude Shannon, le père du binaire Pionnier de la théorie de l’information, Claude Shannon aurait eu 100 ans cette année. Parmi les nombreux hommages émaillant cet anniversaire, un site interactif du CNRS relate son parcours. L’année 2016 marque le centenaire de la naissance de Claude Shannon, ingénieur et mathématicien américain. Atypique et méconnu du grand public, il est le premier à s’intéresser à la question de l’information et de sa transmission. Un siècle plus tard, le père du binaire est à l’honneur : dans un dossier multimédia en ligne1, le CNRS retrace le parcours de ce scientifique original à travers des photos, ses travaux, ses improbables passions et l’héritage considérable qu’il nous a légué. De la cryptographie à la théorie de l’information Pendant la Seconde Guerre mondiale, Claude Shannon est employé dans le service de cryptographie de l’armée américaine. Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26. Il s’est éteint en 2001.

Marcian Hoff Un article de Wikipédia, l'encyclopédie libre. Biographie[modifier | modifier le code] Après quelques années passées en tant que chercheur de l'université Stanford, il est le 12e ingénieur recruté par la société Intel (INTegrated ELectronics) en 1968, une toute jeune startup qui vient d'être crée la même année par Robert Noyce et Gordon Moore très vite rejoint par Andrew Grove (1 milliard de dollars de chiffre d'affaires en 1983). En 1969, la société japonaise Busicom, premier gros client d'Intel, désire développer une gamme de calculateurs programmables de calculatrices de « grande puissance » (pour l’époque), et demande à Intel de fabriquer un jeu de douze circuits intégrés qui leur sont nécessaires. Idée révolutionnaire développée et commercialisée sous le nom de « microprocesseur » « Intel 4004 » dès novembre 1971. Intel vend le microprocesseur et les droits exclusif du Intel 4004 à son client Japonais Busicom pour 60 000 dollars. Articles connexes[modifier | modifier le code]

Quel est l’héritage de Claude Shannon ? Faire le tour à 360° et de façon ludique de toutes les questions qui se posent aujourd’hui dans nos sociétés en pleine mutation : Questions de science, de société, de technologie, de psychologie, d’écologie ou d’économie… Le monde évolue vite et nous avec, au nord comme au sud de la planète. Alors comment on s’adapte ? Pourquoi c’est comme ça ? D’où ça vient ? A quoi ça sert ? Pour répondre : chaque jour, un chercheur de tous horizons et une multiplication de points de vue différents, pour comprendre et éclairer notre présent tout en imaginant les scénarios de nos futurs. Autour de la question, une émission interactive quotidienne, présentée par : - Caroline Lachowsky les lundis, mardis et mercredis (avec la collaboration de Caroline Filliette et Apolline Verlon-Raizon à la réalisation)

Federico Faggin Federico Faggin (2011) Federico Faggin /ˈfeɪɡɪn/ (né le 1er décembre 1941 à Vicence, en Vénétie) est un physicien et inventeur italien, spécialisé en physique du solide. Pionnier de l'informatique et de la technologie des semi-conducteurs, il est l'un des pères du microprocesseur, et fut responsable de sa conception et sa mise en œuvre. Biographie[modifier | modifier le code] Né à Vicence, Italie, Federico Faggin obtint un diplôme en physique, « summa cum laude », de l'université de Padoue en 1965. Pour cette raison, en 1968, il a déménagé en Californie où il vit encore aujourd'hui. Principales réalisations[modifier | modifier le code] Technologie MOS Silicon Gate (1968) – Fairchild, Laboratoires R&D des Semi-conducteurs à Palo Alto, CA[modifier | modifier le code] Federico Faggin était le chef de projet de la Technologie Silicon Gate (TSG) et inventa son unique architecture de processus. Un multiplexeur analogique 8-bits avec logique de décodage, basé sur la TSG. F. F. F. F. (en)F.

Related: