background preloader

Shannon Théorie de l'information

Facebook Twitter

La naissance de la théorie de l'information | 11/05/2017 | Alain Chenciner. L'esprit Shannon | Institut Henri Poincaré. Biographie de Claude Shannon. Claude Shannon est un ingénieur électricien et un mathématicien du XXiè siècle, souvent considére comme le père de la théorie de l'information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l'université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology).

En 1941, il est embauché dans les laboratoires de la compagnie de téléphone AT&T Bell. Shannon travaille aux laboratoires de Bell jusqu'en 1971. La théorie de la transmission des signaux; Shannon comprend que toute donnée, même la voix ou des images, peut se transmettre à l'aide d'une suite de 0 et de 1 (les bits), ouvrant la voie aux communications numériques et non plus analogiques. Les entrées du Dicomaths correspondant à Shannon. Claude E Shannon (1916 - 2001) - Biography. Claude E Shannon's father was also named Claude Elwood Shannon and his mother was Mabel Catherine Wolf. Shannon was a graduate of the University of Michigan, being awarded a degree in mathematics and electrical engineering in 1936. Although he had not been outstanding in mathematics, he then went to the Massachusetts Institute of Technology where he obtained a Master's Degree in electrical engineering and his Ph.D. in mathematics in 1940.

Shannon wrote a Master's thesis A Symbolic Analysis of Relay and Switching Circuits on the use of Boole's algebra to analyse and optimise relay switching circuits. His doctoral thesis was on population genetics. At the Massachusetts Institute of Technology he also worked on the differential analyser, an early type of mechanical computer developed by Vannevar Bush for obtaining numerical solutions to ordinary differential equations. Shannon published Mathematical theory of the differential analyzer in 1941.

Marvin Minsky described Shannon as follows:- Claude Shannon (présenté par Olivier Rioul) SHANNON ET LES CANAUX D’INFORMATION. Théorie de l’information et progrès des et siècles Quand Claude Elwood Shannon (1916-2001) développait sa théorie dans les années 40, la découverte du transistor en 1947 donna un nouvel élan à l’électronique : il s’agissait d’améliorer les liaisons radio ou TV, et les détections radar. Puis l’informatique se développait par vagues successives. Les premiers ordinateurs fonctionnaient à tubes dans les années 40, remplacés par les transistors (années 50), les circuits intégrés (années 1960) et les microprocesseurs (années 70). Avec l’informatique, de nouveaux besoins apparaissaient : comprimer les données pour pouvoir les stocker sur des supports alors rares et chers.

Les communications par satellites se développaient depuis les années 60. Il fallait multiplier le nombre de liaisons simultanées avec des puissances limitées. Puis les liaisons optiques terrestres et maritimes remplaçaient celles coaxiales et hertziennes depuis les années 90. Objectif de l’article L’information vue par Shannon et : La théorie de l'information de Claude Shannon - Passe-science #44. Savoirs ENS. Shannon 100 - 27/10/2016 - Vincent GRIPON. Garnier Josselin - "Claude Shannon et l'avènement de l'ère numérique" - 2016. 2016 est le centenaire de la naissance de Claude Shannon, qui fut l'un des responsables de la révolution numérique que nous vivons actuellement. John von Neumann, Alan Turing et bien d'autres visionnaires nous ont donné des ordinateurs capables de traiter l'information.

Mais ce fut Claude Shannon qui a introduit le concept moderne de l'information. La théorie de l'information est née d'un article en deux parties que Shannon a publié en 1948, quand il était chercheur aux Laboratoires Bell. Shannon a montré dans cet article comment la notion jusqu'alors vague d'information pouvait être définie et quantifiée avec précision. Il a démontré l'unité essentielle de tous les moyens d'information, en soulignant que les textes, les signaux téléphoniques, les ondes radio, les photos, les films, etc pouvaient être codés dans le langage universel des chiffres binaires, ou bits, terme que son article a été le premier à utiliser.

Texte : C. Pour en savoir plus : bibliographie. Qu'est-ce qu'une information? (par Josselin GARNIER) Une théorie mathématique de la communication. Théorie de l'information: Incertitude, information et entropie, Shannon... Qu'est-ce que la théorie de l'information ? 11. Le deuxième théorème de Shannon La notion d’information mutuelle et la borne 2−nI(X;Y) ci-dessus permet à Shannon de résoudre le problème théorique de la transmission dans un canal bruité (voir le paradigme de la figure 1).

Il s’agit cette fois de maximiser le débit d’information transmis tout en garantissant une communication arbitrairement fiable du message au destinataire. Pour cela, il suffit de décoder l’information de sorte à récupérer un code x_ conjointement typique de y_ en sortie du canal, car la probabilité de tomber sur un (x_,y_) non typique est arbitrairement faible. La probabilité d’erreur de décodage est donc essentiellement due à la présence éventuelle d’un autre code conjointement typique de y_, qui donne lieu à une ambiguïté de décodage.

D’après ce qu’on vient de voir, la probabilité totale d’erreur due à une telle ambiguïté est bornée par N⋅2−nI(X;Y) où N est le nombre total de codes utilisés dans la transmission. la capacité du canal. 12. 13. Weatherball. The intent of this column is to explain how [Claude] Shannon proposed that we measure information and how this measure helps us understand the rate at which it can be transmitted. … David AustinGrand Valley State University Introduction Tech news these days is filled with stories about the upcoming 5G revolution in wireless networking. While there are several reasons to expect improvements, one significant factor is the use of polar codes to encode information for transmission. Originally, I intended for this column to be about polar codes, but, after reading around for a while, I thought it could be useful to back up and describe how information is quantified. So the intent of this column is to explain how Shannon proposed that we measure information and how this measure helps us understand the rate at which it can be transmitted.

An information source The first thing to know is that information, as quantified by Shannon, is a measure of the amount of choice we have in expression. Entropy. Shannon 100 - 26/10/2016 - Elisabeth GASSIAT. How Claude Shannon Rebooted Information. With his marriage to Norma Levor over, Claude Shannon was a bachelor again, with no attachments, a small Greenwich Village apartment, and a demanding job. His evenings were mostly his own, and if there’s a moment in Shannon’s life when he was at his most freewheeling, this was it. He kept odd hours, played music too loud, and relished the New York jazz scene. He went out late for raucous dinners and dropped by the chess clubs in Washington Square Park. He rode the A train up to Harlem to dance the jitterbug and take in shows at the Apollo. His home, on the third floor of 51 West Eleventh Street, was a small New York studio.

Though the building’s live-in super and housekeeper, Freddy, thought Shannon morose and a bit of a loner, Shannon did befriend and date his neighbor Maria. Maria encouraged him to dress up and hit the town. A few Bell Labs colleagues became Shannon’s closest friends. The answer to noise is not in how loudly we speak, but in how we say what we say. W=k log(m) Shannon 100 - 26/10/2016 - Anne CANTEAUT. La naissance de la théorie de l'information | 11/05/2017 | Alain Chenciner. La théorie l’information sans peine - Bourbaphy - 17/11/18. Claude Shannon et la compression des données | 11/05/2017 | Gabriel Peyre. CLAUDE SHANNON ET LA COMPRESSION DES DONNÉES. Données numériques et codage Dans le monde numérique qui nous entoure, toutes les données (images, films, sons, textes, etc.) sont codées informatiquement sous la forme d’une succession de et des .

Ce codage n’est pas limité au stockage sur des ordinateurs, il est aussi central pour les communications sur internet (envois de courriels, « streaming » vidéo, etc.) ainsi que pour des applications aussi diverses que les lecteurs de musique, les liseuses électroniques ou les téléphones portables. Cependant, les données (par exemple du texte, des sons, des images ou des vidéos) sont initialement représentées sous la forme d’une succession de symboles, qui ne sont pas forcément des ou des . Par exemple, pour le cas d’un texte, les symboles sont les lettres de l’alphabet.

Pour les cas des images, il s’agit des valeurs des pixels. La théorie élaborée par Claude Shannon décrit les bases théoriques et algorithmiques de ce codage. Exemple d’une image : noir : gris foncé, : gris clair, : blanc. Claude Shannon et l'avènement du numérique. Nous fêtons, cette année, le centenaire de la naissance d’un extraordinaire excentrique. Celle du mathématicien et ingénieur Claude Shannon. Né dans le Michigan en 1916, Shannon est l’un des fondateurs essentiels de la révolution numérique, et de la naissance de l’informatique, avec ses alter ego ; Alan Turing et John von Neumann.

Shannon est le premier qui emploie l’expression « théorie de l’information ». Cela en 1948, dans un article intitulé : « A Mathematical Theory of Communication ». La curiosité du mathématicien américain la porte vers des domaines, ou des objets, aussi divers que la science du codage des messages, la cryptographie. La construction de machines intelligentes. Avec une définition de l’information réduite au choix entre deux options (oui/non, ouvert/fermé, pile/face, 0/1), Shannon invente son unité de mesure, le « bit », chiffre binaire aujourd’hui universellement utilisé.

Pour chercher et approfondir - Claude Shannon et la compression des données. Gabriel Peyré [1] Résumé L’immense majorité des données (texte, son, image, vidéo, etc.) sont stockées et manipulées sous forme numérique, c’est-à-dire à l’aide de nombres entiers qui sont convertis en une succession de bits (des 0 et des 1). La conversion depuis le monde analogique continu vers ces représentations numériques discrètes est décrite par la théorie élaborée par Claude Shannon (30 avril 1916–24 février 2001), le père fondateur de la théorie de l’information.

L’impact de cette théorie sur notre société est absolument colossal. Pourtant son nom est quasi inconnu du grand public. Le centenaire de la naissance de Claude Shannon est donc une bonne excuse pour présenter l’œuvre d’un très grand scientifique. Plan de l’article 1 Données numériques et codage 2. Télécharger l’article en pdf dans son intégralité. ROTATIONS DISCRÈTES. Une première idée d’algorithme Essayons de nous mettre dans la peau des premiers ingénieurs confrontés à cette question au moment de l’avènement des images numériques. Leur but était de trouver un moyen simple, algorithmique, de tourner une image numérique d’un angle donné. Pour commencer, une image numérique, qu’est-ce que c’est ? C’est une grille formée de petits carrés appelés pixels ; chacun de ces petits carrés étant colorié d’une couleur uniforme. Choisissons maintenant un angle dont on veut faire tourner notre image, disons 20°.

La première idée qui vient à l’esprit est en général la suivante. Quelque chose cloche : la couleur de certains pixels de l’image tournée n’est pas du tout définie : si on tourne tous les centres des pixels de l’image de départ, on rate un certain nombre de pixels de l’image d’arrivée [1]. Une petite réparation Si on zoome un peu on voit que le résultat est moins bon que l’image de départ, mais en tous cas l’algorithme semble bien meilleur que le précédent.

Savoirs ENS. Savoirs ENS. Arnaud Marsiglietti , Géométrie des mesures convexes et liens avec la théorie de l’information. Thèse de doctorat en Mathématiques Résumé Cette thèse est consacrée à l'étude des mesures convexes ainsi qu'aux analogies entre la théorie de Brunn-Minkowski et la théorie de l'information. Je poursuis les travaux de Costa et Cover qui ont mis en lumière des similitudes entre deux grandes théories mathématiques, la théorie de Brunn-Minkowski d'une part et la théorie de l'information d'autre part. Partant de ces similitudes, ils ont conjecturé, comme analogue de la concavité de l'entropie exponentielle, que la racine n-ième du volume parallèle de tout ensemble compact de R^n est une fonction concave, et je résous cette conjecture de manière détaillée. Par ailleurs, j'étudie les mesures convexes définies par Borell et je démontre pour ces mesures une inégalité renforcée de type Brunn-Minkowski pour les ensembles convexes symétriques.

Codage Shannon Huffman. How Claude Shannon Invented the Future. Science seeks the basic laws of nature. Mathematics searches for new theorems to build upon the old. Engineering builds systems to solve human needs. The three disciplines are interdependent but distinct. Very rarely does one individual simultaneously make central contributions to all three — but Claude Shannon was a rare individual. Despite being the subject of the recent documentary The Bit Player — and someone whose work and research philosophy have inspired my own career — Shannon is not exactly a household name. Shannon was born in Gaylord, Michigan, in 1916, the son of a local businessman and a teacher. Next, Shannon set his sights on an even bigger target: communication. Communication is one of the most basic human needs. The heart of his theory is a simple but very general model of communication: A transmitter encodes information into a signal, which is corrupted by noise and then decoded by the receiver.

His theorems led to some counterintuitive conclusions. Le codage de Shannon-Fano | Olivier Levêque. La théorie de l'information. Entropie. ICC week 2 clip 1 1 1 FR Introduction. Qu'est-ce que la théorie de l'information ? Briller en société #42: Les codes correcteurs. Cryptographie. [2010.02331] How to send a real number using a single bit (and some shared randomness) Ma pièce biaisée. David MacKay: Information Theory, Inference, and Learning Algorithms: The Book. Download the book too You can browse and search the book on Google books. You may download The book in one file (640 pages): Notes: Version 6.0 was released Thu 26/6/03; the book is finished. You are welcome to view the book on-screen. Version 6.0 was used for the first printing, published by C.U.P. Copyright issues: The book is copyright (c) Cambridge University Press. Now the book is published, these files will remain viewable on this website.

History: Draft 1.1.1 - March 14 1997. Here is my method for converting to two-up under linux:pstops '4:0L@.67(20cm,1cm)+1L@.67(20cm,15cm),3R@.67(1cm,15.25cm)\ +2R@.67(1cm,29.25cm)' $*.ps $*.dps. Sam roweis : teaching. Furious activity is no substitute for understanding. - H.H. Williams Current Course Offerings I will be offering a course in the spring of 2010. Details soon. Typical Course Offerings Past Courses at the University of Toronto CSC2515 Machine Learning (2002, 2003, 2004, 2005, 2006) CSC412 Uncertainty and Learning in Artificial Intelligence (2002, 2003, 2004, 2006) CSC2506 Probabilistic Reasoning [cross-listed version of CSC412] (2004, 2006) CSC310 Information Theory (2005, 2006) ECE242 Algorithms and Data Structures (undergrad engineering) ( fall 2003) Course Descriptions Informal Notes and Lecture Slides Matrix and Gaussian identities (useful!)

External Tutorials HMMs, Linear Dynamical Systems, Unsupervised Learning, SVMs, VC Theory,... Previous Teaching and Outreach [ | Information | Research | Teaching | Professional | ] Sam Roweis, Vision, Learning and Graphics Group, NYU, www.cs.nyu.edu/~roweis. Combien existe-t-il de parties d'Échecs différentes? 200 OK. Cours : MA6AY030 Théorie de l'information.