Système d'information Un article de Wikipédia, l'encyclopédie libre. Un système d'information (SI) est un ensemble organisé de ressources (matériels, logiciels, personnel, données et procédures) qui permet de collecter, regrouper, classifier, traiter et diffuser de l'information dans un environnement donné[1]. L'apport des nouvelles technologies de l'Information (NTIC) est à l'origine du regain de la notion de système d´information. L'utilisation combinée de moyens informatiques, électroniques et de procédés de télécommunication permet aujourd'hui -selon les besoins et les intentions exprimés- d'accompagner, d'automatiser et de dématérialiser quasiment toutes les opérations incluses dans les activités ou procédures d'entreprise.

Système d'information

Urbanisation (informatique)

Urbanisation (informatique) Un article de Wikipédia, l'encyclopédie libre. L'urbanisation du système d'information d'une entité ou organisation (une entreprise ou une administration) est une discipline d’ingénierie informatique consistant à faire évoluer son système d'information (SI) pour qu'il soutienne et accompagne de manière efficace et efficiente les missions de cette organisation et leurs transformations. L'urbanisation du SI ne fait pas table rase du passé mais tient compte de l'existant et doit permettre de mieux anticiper les évolutions ou contraintes internes et externes impactant le SI, et en s'appuyant le cas échéant sur des opportunités technologiques. Les concepts manipulés peuvent s'apparenter à ceux de l'urbanisation de l'habitat humain (organisation des villes, du territoire), concepts qui ont été réutilisés en informatique[1] pour formaliser ou modéliser la réingénierie du système d'information (SI)[2].
Mémoire (informatique)

Un article de Wikipédia, l'encyclopédie libre. Exemple d'informations binaires C'est un concept essentiel de l'informatique. En effet, les processeurs des ordinateurs sont composés de transistors ne gérant chacun que deux états. Un calcul informatique n'est donc qu'une suite d'opérations sur des paquets de 0 et de 1, appelés octets lorsqu'ils sont regroupés par huit. Définition[modifier | modifier le code] Système binaire Système binaire
Bit Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec byte. Le bit est un chiffre binaire, c'est-à-dire 0 ou 1. Il est donc aussi une unité de mesure en informatique, celle désignant la quantité élémentaire d'information représentée par un chiffre du système binaire. On en doit l'invention à John Tukey et la popularisation à Claude Shannon[1]. Bit
Format de données Un article de Wikipédia, l'encyclopédie libre. Typologie[modifier | modifier le code] On distingue un format dont la spécification est publiquement accessible, un format ouvert, d'un format fermé dont la spécification est secrète. Format de données
Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec byte. En informatique, un octet est un regroupement de 8 bits codant une information. Dans ce système de codage, s'appuyant sur le système binaire, un octet permet de représenter 28, c'est-à-dire 256, valeurs différentes. Octet Octet
Byte Byte Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec octet ni bit. Le byte (prononcé [baɪt]), de symbole B, ou multiplet, est la plus petite unité adressable d’un ordinateur. Aujourd’hui, les bytes de 8 bits se sont généralisés en informatique, alors qu’en télécommunications ils peuvent contenir 8 ou 9 bits.
John Tukey Un article de Wikipédia, l'encyclopédie libre. John Wilder Tukey (16 juin 1915 - 26 juillet 2000) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. John Tukey
Données

Un article de Wikipédia, l'encyclopédie libre. Pictogramme représentant une information L'information est un concept ayant plusieurs sens.

Information

Information

Théorie de l'information

Théorie de l'information Un article de Wikipédia, l'encyclopédie libre. La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948. Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer : Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.
Un article de Wikipédia, l'encyclopédie libre. Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code] Claude Shannon