Information

Facebook Twitter

Système d'information. Un article de Wikipédia, l'encyclopédie libre.

Système d'information

Un système d'information (SI) est un ensemble organisé de ressources (matériels, logiciels, personnel, données et procédures) qui permet de collecter, regrouper, classifier, traiter et diffuser de l'information dans un environnement donné[1]. L'apport des nouvelles technologies de l'Information (NTIC) est à l'origine du regain de la notion de système d´information. L'utilisation combinée de moyens informatiques, électroniques et de procédés de télécommunication permet aujourd'hui -selon les besoins et les intentions exprimés- d'accompagner, d'automatiser et de dématérialiser quasiment toutes les opérations incluses dans les activités ou procédures d'entreprise. Urbanisation (informatique)

Un article de Wikipédia, l'encyclopédie libre.

Urbanisation (informatique)

L'urbanisation du système d'information d'une entité ou organisation (une entreprise ou une administration) est une discipline d’ingénierie informatique consistant à faire évoluer son système d'information (SI) pour qu'il soutienne et accompagne de manière efficace et efficiente les missions de cette organisation et leurs transformations. L'urbanisation du SI ne fait pas table rase du passé mais tient compte de l'existant et doit permettre de mieux anticiper les évolutions ou contraintes internes et externes impactant le SI, et en s'appuyant le cas échéant sur des opportunités technologiques. Les concepts manipulés peuvent s'apparenter à ceux de l'urbanisation de l'habitat humain (organisation des villes, du territoire), concepts qui ont été réutilisés en informatique[1] pour formaliser ou modéliser la réingénierie du système d'information (SI)[2]. Mémoire (informatique) Système binaire.

Un article de Wikipédia, l'encyclopédie libre.

Système binaire

Exemple d'informations binaires C'est un concept essentiel de l'informatique. En effet, les processeurs des ordinateurs sont composés de transistors ne gérant chacun que deux états. Un calcul informatique n'est donc qu'une suite d'opérations sur des paquets de 0 et de 1, appelés octets lorsqu'ils sont regroupés par huit. Définition[modifier | modifier le code] Bit. Un article de Wikipédia, l'encyclopédie libre.

Bit

Ne doit pas être confondu avec byte. Le bit est un chiffre binaire, c'est-à-dire 0 ou 1. Il est donc aussi une unité de mesure en informatique, celle désignant la quantité élémentaire d'information représentée par un chiffre du système binaire. On en doit l'invention à John Tukey et la popularisation à Claude Shannon[1]. Format de données. Un article de Wikipédia, l'encyclopédie libre.

Format de données

Typologie[modifier | modifier le code] On distingue un format dont la spécification est publiquement accessible, un format ouvert, d'un format fermé dont la spécification est secrète. Octet. Un article de Wikipédia, l'encyclopédie libre.

Octet

Ne doit pas être confondu avec byte. En informatique, un octet est un regroupement de 8 bits codant une information. Dans ce système de codage, s'appuyant sur le système binaire, un octet permet de représenter 28, c'est-à-dire 256, valeurs différentes. Byte. Un article de Wikipédia, l'encyclopédie libre.

Byte

Ne doit pas être confondu avec octet ni bit. Le byte (prononcé [baɪt]), de symbole B, ou multiplet, est la plus petite unité adressable d’un ordinateur. Aujourd’hui, les bytes de 8 bits se sont généralisés en informatique, alors qu’en télécommunications ils peuvent contenir 8 ou 9 bits. John Tukey. Un article de Wikipédia, l'encyclopédie libre.

John Tukey

John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2].

Données

Information. Un article de Wikipédia, l'encyclopédie libre.

Information

Pictogramme représentant une information. L'information est un concept ayant plusieurs sens. Théorie de l'information. Un article de Wikipédia, l'encyclopédie libre.

Théorie de l'information

La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer : Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Claude Shannon. Un article de Wikipédia, l'encyclopédie libre. Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code]