background preloader

Transmission de données

Facebook Twitter

Transmission de données. Cet article ne cite aucune source et peut contenir des informations erronées(signalé en juin 2016).

Transmission de données

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références » (modifier l'article). La transmission de données désigne le transport, quel que soit le type d'information, d'un endroit à un autre, par un moyen physique. Joseph Fourier. Pour les articles homonymes, voir Fourier.

Joseph Fourier

Jean Baptiste Joseph Fourier est un mathématicien et physicien français né le 21 mars 1768 à Auxerre et mort le 16 mai 1830 à Paris. Il est connu pour avoir déterminé, par le calcul, la diffusion de la chaleur en utilisant la décomposition d'une fonction quelconque en une série trigonométrique convergente. De telles fonctions sont appelées séries de Fourier ; la méthode de calcul permettant de façon réversible de passer d'une fonction à la série trigonométrique correspondante est la transformation de Fourier.

Cette méthode très féconde est devenue incontournable en théorie du signal, imagerie numérique, compression de données, dans l'exploitation des systèmes 3G, 4G. Claude Shannon, le père du binaire. Pionnier de la théorie de l’information, Claude Shannon aurait eu 100 ans cette année.

Claude Shannon, le père du binaire

Parmi les nombreux hommages émaillant cet anniversaire, un site interactif du CNRS relate son parcours. L’année 2016 marque le centenaire de la naissance de Claude Shannon, ingénieur et mathématicien américain. Atypique et méconnu du grand public, il est le premier à s’intéresser à la question de l’information et de sa transmission. Un siècle plus tard, le père du binaire est à l’honneur : dans un dossier multimédia en ligne1, le CNRS retrace le parcours de ce scientifique original à travers des photos, ses travaux, ses improbables passions et l’héritage considérable qu’il nous a légué. Né en 1916 à Petoskey, dans le Michigan, diplômé en ingénierie et mathématiques, il a partagé sa carrière entre le Massachusetts Institute of Technology (MIT) et les Laboratoires Bell.

Traitement du signal

Système d'information. Système d'exploitation. Réseaux. Problème des généraux byzantins. La cryptographie. Interopérabilité. Information System. Système multi-agents. Origine et aspects techniques[modifier | modifier le code] Origine[modifier | modifier le code] L'une des grandes sources d'inspiration pour les systèmes multi-agents a été l'étude des comportements sociaux de certaines familles d'insectes[1].

Système multi-agents

Dans ce domaine, on se référera utilement aux articles Intelligence collective et Intelligence distribuée. Les SMA peuvent être vus comme la rencontre de divers domaines[2] : l'intelligence artificielle pour les aspects prise de décision de l'agentl'intelligence artificielle distribuée pour la distribution de l'exécutionles systèmes distribués pour les interactionsle génie logiciel pour l'approche agents et l'évolution vers des composants logiciels de plus en plus autonomesLes objets communicants Un exemple pour comprendre : la métaphore des jeux vidéo[modifier | modifier le code] Théorème CAP. Un article de Wikipédia, l'encyclopédie libre.

Théorème CAP

Le théorème CAP ou CDP, aussi connu sous le nom de théorème de Brewer dit qu'il est impossible sur un système informatique de calcul distribué de garantir en même temps (c'est-à-dire de manière synchrone) les trois contraintes suivantes[1],[2] : Cohérence (Consistency en anglais) : tous les nœuds du système voient exactement les mêmes données au même moment ;Disponibilité (Availability en anglais) : garantie que toutes les requêtes reçoivent une réponse;Tolérance au partitionnement (Partition Tolerance en anglais) : aucune panne moins importante qu'une coupure totale du réseau ne doit empêcher le système de répondre correctement (ou encore : en cas de morcellement en sous-réseaux, chacun doit pouvoir fonctionner de manière autonome).

D'après ce théorème, un système de calcul/stockage distribué ne peut garantir à un instant T que deux de ces contraintes mais pas les trois[3]. La vie après le théorème CAP. Tl;dr (a.k.a “take aways”) : Vous ne pouvez pas vous permettre de ne pas vous poser les question autour de la partition, parce que le réseau est fondamentalement non fiable (notamment à cause de la latence).

La vie après le théorème CAP

Votre système doit les prévoir, voire les tolérer.Le théorème CAP est un beau modèle théorique et mais n’est pas applicable en pratique. Il est intéressant pour les questions qu’il soulève et le compromis qu’il amène à considérer. La solution pratique est complexe, et vous devez envisager votre propre stratégie de réconciliation suite à une partition d’un point de vue métier. Pourquoi un talk sur un théorème ? De nos jours “distributed is becoming the norm” : tout le monde veut de l’élasticité, de la haute disponibilité et de la résilience (à défaut d’avoir besoin).

La théorie Le théorème a été formellement prouvé par la suite par Gilbert et Lynch. Cohérence (linéarisabilité) : toute lecture qui suit une écriture doit renvoyer la valeur de cette dernière, ou une valeur plus récente.