Information

Facebook Twitter

Système d'information. Un article de Wikipédia, l'encyclopédie libre.

Système d'information

Un système d'information (SI) est un ensemble organisé de ressources (matériels, logiciels, personnel, données et procédures) qui permet de collecter, regrouper, classifier, traiter et diffuser de l'information dans un environnement donné[1]. L'apport des nouvelles technologies de l'Information (NTIC) est à l'origine du regain de la notion de système d´information. L'utilisation combinée de moyens informatiques, électroniques et de procédés de télécommunication permet aujourd'hui -selon les besoins et les intentions exprimés- d'accompagner, d'automatiser et de dématérialiser quasiment toutes les opérations incluses dans les activités ou procédures d'entreprise. Urbanisation (informatique)

Un article de Wikipédia, l'encyclopédie libre.

Urbanisation (informatique)

L'urbanisation du système d'information d'une entité ou organisation (une entreprise ou une administration) est une discipline d’ingénierie informatique consistant à faire évoluer son système d'information (SI) pour qu'il soutienne et accompagne de manière efficace et efficiente les missions de cette organisation et leurs transformations. L'urbanisation du SI ne fait pas table rase du passé mais tient compte de l'existant et doit permettre de mieux anticiper les évolutions ou contraintes internes et externes impactant le SI, et en s'appuyant le cas échéant sur des opportunités technologiques. Les concepts manipulés peuvent s'apparenter à ceux de l'urbanisation de l'habitat humain (organisation des villes, du territoire), concepts qui ont été réutilisés en informatique[1] pour formaliser ou modéliser la réingénierie du système d'information (SI)[2]. Mémoire (informatique) Système binaire.

Un article de Wikipédia, l'encyclopédie libre.

Système binaire

Exemple d'informations binaires C'est un concept essentiel de l'informatique. En effet, les processeurs des ordinateurs sont composés de transistors ne gérant chacun que deux états. Un calcul informatique n'est donc qu'une suite d'opérations sur des paquets de 0 et de 1, appelés octets lorsqu'ils sont regroupés par huit. Définition[modifier | modifier le code] Le système binaire le plus courant est l'équivalent en base deux de la numération de position que nous utilisons en base dix dans la vie courante. Dans ce type de codage, chaque nombre est représenté de façon unique par une suite ordonnée de chiffres. On voit que la signification des représentations 10, 100, 1000, etc. dépend de la base utilisée : 10 est toujours égale à la base, c'est-à-dire dix en base dix, mais deux en base deux[1] Un nombre qui s'exprime en base B par les quatre chiffres 1101 s'analyse : , qui donne : Énumération des premiers nombres[modifier | modifier le code] ainsi:

Bit. Un article de Wikipédia, l'encyclopédie libre.

Bit

Ne doit pas être confondu avec byte. Le bit est un chiffre binaire, c'est-à-dire 0 ou 1. Il est donc aussi une unité de mesure en informatique, celle désignant la quantité élémentaire d'information représentée par un chiffre du système binaire. On en doit l'invention à John Tukey et la popularisation à Claude Shannon[1]. Vocabulaire[modifier | modifier le code] Il ne faut pas confondre un bit avec un byte, mot anglais qui se prononce /bait/ et se traduit par multiplet[2], association d'objets semblables. Notation des valeurs[modifier | modifier le code] Format de données. Un article de Wikipédia, l'encyclopédie libre.

Format de données

Typologie[modifier | modifier le code] On distingue un format dont la spécification est publiquement accessible, un format ouvert, d'un format fermé dont la spécification est secrète. Un format fermé correspond généralement à un logiciel seul capable de pleinement l'exploiter. Une autre distinction s'opère entre un format normalisé, faisant l'objet d'une normalisation par une institution publique ou internationale (ISO, W3C) et un format quelconque, qui peut devenir un standard de fait s'il est populaire. Un tel format est parfois normalisé par la suite comme OpenDocument. Un format est dit propriétaire s'il a été élaboré par une entreprise, dans un but essentiellement commercial. Formats des nombres[modifier | modifier le code] Nombres entiers[modifier | modifier le code] Par exemple, avec un octet on peut représenter : Nombres fractionnaires[modifier | modifier le code] Octet. Un article de Wikipédia, l'encyclopédie libre.

Octet

Ne doit pas être confondu avec byte. En informatique, un octet est un regroupement de 8 bits codant une information. Dans ce système de codage, s'appuyant sur le système binaire, un octet permet de représenter 28, c'est-à-dire 256, valeurs différentes. Un ou plusieurs octets permettent ainsi de coder des valeurs numériques ou des caractères. Un octet est toujours composé de 8 bits alors que le byte (prononcé [baɪt]) , qui a souvent une taille d'un octet (8 bits), peut aussi avoir une taille différente (en général entre 7 et 9 bits).

Symboles[modifier | modifier le code] Multiples[modifier | modifier le code] Pourcentage de différence entre la représentation décimale et la représentation binaire. Windows Vista écrit les valeurs en Go (puissance de 10), tout en les calculant en Gio (puissance de 2), ce qui est contraire aux règles du SI. Byte. Un article de Wikipédia, l'encyclopédie libre.

Byte

Ne doit pas être confondu avec octet ni bit. Le byte (prononcé [baɪt]), de symbole B, ou multiplet, est la plus petite unité adressable d’un ordinateur. Aujourd’hui, les bytes de 8 bits se sont généralisés en informatique, alors qu’en télécommunications ils peuvent contenir 8 ou 9 bits. Mais jusque dans les années 1970, il existait des processeurs avec des bytes de 6, 7, 8 ou 9 bits, et il existe aujourd'hui pour la programmation des automates ou équipements industriels simples des processeurs très robustes utilisant des mémoires adressables par quantité de 4 bits voire 1 bit.

John Tukey. Un article de Wikipédia, l'encyclopédie libre.

John Tukey

John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2].

Données

Information. Théorie de l'information. Un article de Wikipédia, l'encyclopédie libre.

Théorie de l'information

La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

Claude Shannon. Un article de Wikipédia, l'encyclopédie libre.

Claude Shannon

Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code] Shannon travaille vingt ans au MIT, de 1958 à 1978. Son œuvre[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l'armée américaine, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage.