background preloader

Information

Facebook Twitter

Système d'information. Un article de Wikipédia, l'encyclopédie libre. Un système d'information (SI) est un ensemble organisé de ressources (matériels, logiciels, personnel, données et procédures) qui permet de collecter, regrouper, classifier, traiter et diffuser de l'information dans un environnement donné[1].

L'apport des nouvelles technologies de l'Information (NTIC) est à l'origine du regain de la notion de système d´information. L'utilisation combinée de moyens informatiques, électroniques et de procédés de télécommunication permet aujourd'hui -selon les besoins et les intentions exprimés- d'accompagner, d'automatiser et de dématérialiser quasiment toutes les opérations incluses dans les activités ou procédures d'entreprise.

Enjeux du système d'information[modifier | modifier le code] Le système d'information est le véhicule des entités de l'organisation. Les différentes natures du système d'information[modifier | modifier le code] Système d'information et finalité de la chose[modifier | modifier le code] Urbanisation (informatique) Un article de Wikipédia, l'encyclopédie libre. L'urbanisation du système d'information d'une entité ou organisation (une entreprise ou une administration) est une discipline d’ingénierie informatique consistant à faire évoluer son système d'information (SI) pour qu'il soutienne et accompagne de manière efficace et efficiente les missions de cette organisation et leurs transformations. L'urbanisation du SI ne fait pas table rase du passé mais tient compte de l'existant et doit permettre de mieux anticiper les évolutions ou contraintes internes et externes impactant le SI, et en s'appuyant le cas échéant sur des opportunités technologiques.

Les concepts manipulés peuvent s'apparenter à ceux de l'urbanisation de l'habitat humain (organisation des villes, du territoire), concepts qui ont été réutilisés en informatique[1] pour formaliser ou modéliser la réingénierie du système d'information (SI)[2]. L'urbanisation facilite la transformation continue du système d’information. Mémoire (informatique) Système binaire. Un article de Wikipédia, l'encyclopédie libre. Exemple d'informations binaires C'est un concept essentiel de l'informatique. En effet, les processeurs des ordinateurs sont composés de transistors ne gérant chacun que deux états. Un calcul informatique n'est donc qu'une suite d'opérations sur des paquets de 0 et de 1, appelés octets lorsqu'ils sont regroupés par huit. Définition[modifier | modifier le code] Le système binaire le plus courant est l'équivalent en base deux de la numération de position que nous utilisons en base dix dans la vie courante.

Dans ce type de codage, chaque nombre est représenté de façon unique par une suite ordonnée de chiffres. On voit que la signification des représentations 10, 100, 1000, etc. dépend de la base utilisée : 10 est toujours égale à la base, c'est-à-dire dix en base dix, mais deux en base deux[1] Un nombre qui s'exprime en base B par les quatre chiffres 1101 s'analyse : , qui donne : Énumération des premiers nombres[modifier | modifier le code] ainsi: Bit. Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec byte. Le bit est un chiffre binaire, c'est-à-dire 0 ou 1. Il est donc aussi une unité de mesure en informatique, celle désignant la quantité élémentaire d'information représentée par un chiffre du système binaire. On en doit l'invention à John Tukey et la popularisation à Claude Shannon[1]. Vocabulaire[modifier | modifier le code] Il ne faut pas confondre un bit avec un byte, mot anglais qui se prononce /bait/ et se traduit par multiplet[2], association d'objets semblables.

Notation des valeurs[modifier | modifier le code] Technologiquement parlant, il existe une grande variété de moyen d'encodage binaire de l'information, selon le support de stockage ou de transmission utilisé : les propriétés physiques telle que la polarisation magnétique, la charge, le courant ou la tension électrique, l'intensité lumineuse, sont couramment utilisées. Abréviation et symbole[modifier | modifier le code] Portail de l’informatique. Format de données. Un article de Wikipédia, l'encyclopédie libre. Typologie[modifier | modifier le code] On distingue un format dont la spécification est publiquement accessible, un format ouvert, d'un format fermé dont la spécification est secrète.

Un format fermé correspond généralement à un logiciel seul capable de pleinement l'exploiter. Une autre distinction s'opère entre un format normalisé, faisant l'objet d'une normalisation par une institution publique ou internationale (ISO, W3C) et un format quelconque, qui peut devenir un standard de fait s'il est populaire. Un format est dit propriétaire s'il a été élaboré par une entreprise, dans un but essentiellement commercial. Formats des nombres[modifier | modifier le code] Nombres entiers[modifier | modifier le code] Par exemple, avec un octet on peut représenter : On notera que pour comparer deux entiers relatifs codés ainsi, il suffit de réaliser un OU exclusif avec (10000000 en binaire) sur chacun avant le test. Exemple agrandi d'une image carte de points. Octet. Un article de Wikipédia, l'encyclopédie libre.

Ne doit pas être confondu avec byte. En informatique, un octet est un regroupement de 8 bits codant une information. Dans ce système de codage, s'appuyant sur le système binaire, un octet permet de représenter 28, c'est-à-dire 256, valeurs différentes. Un ou plusieurs octets permettent ainsi de coder des valeurs numériques ou des caractères. Un octet est toujours composé de 8 bits alors que le byte (prononcé [baɪt]) , qui a souvent une taille d'un octet (8 bits), peut aussi avoir une taille différente (en général entre 7 et 9 bits). Symboles[modifier | modifier le code] Multiples[modifier | modifier le code] Pourcentage de différence entre la représentation décimale et la représentation binaire.

Windows Vista écrit les valeurs en Go (puissance de 10), tout en les calculant en Gio (puissance de 2), ce qui est contraire aux règles du SI. Multiples normalisés[modifier | modifier le code] et ainsi de suite. Propriétés[modifier | modifier le code] Byte. Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec octet ni bit. Le byte (prononcé [baɪt]), de symbole B, ou multiplet, est la plus petite unité adressable d’un ordinateur. Aujourd’hui, les bytes de 8 bits se sont généralisés en informatique, alors qu’en télécommunications ils peuvent contenir 8 ou 9 bits. Mais jusque dans les années 1970, il existait des processeurs avec des bytes de 6, 7, 8 ou 9 bits, et il existe aujourd'hui pour la programmation des automates ou équipements industriels simples des processeurs très robustes utilisant des mémoires adressables par quantité de 4 bits voire 1 bit.

En revanche, un octet, comme son nom l’indique, a une taille d'exactement 8 bits. Histoire[modifier | modifier le code] Le terme est créé en 1956 par Werner Buchholz, alors qu'il travaille à la conception de l'IBM Stretch. Distinction entre byte et octet[modifier | modifier le code] Le mot byte vient de l'anglais. Confusion entre bit et byte[modifier | modifier le code] John Tukey. Un article de Wikipédia, l'encyclopédie libre. John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree).

Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office . Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton. En 1950, il épouse Elizabeth Louise Rapp. Ses intérêts statistiques furent nombreux et variés.

Données

Information. Un article de Wikipédia, l'encyclopédie libre. L'information est un concept ayant plusieurs sens. Il est étroitement lié aux notions de contrainte, communication, contrôle, donnée, formulaire, instruction, connaissance, signification, perception et représentation. Au sens étymologique, l'information est ce qui donne une forme à l'esprit[1]. Elle vient du verbe latin informare, qui signifie « donner forme à » ou « se former une idée de ». Historique[modifier | modifier le code] Le projet de fonder une « science de l'information et de la documentation » spécifique s'est affirmé sous l'impulsion d'acteurs comme Pierre Larousse (1817-1875), Melvil Dewey (1851-1931), Paul Otlet (1868-1944), Jean Meyriat (1921- 2010 ).

On doit aux spécialistes de cette science d'avoir posé que l'information ne circule pas (elle n'est pas un objet), mais qu'elle se redéfinit sans cesse (elle est une relation et une action). Définition[modifier | modifier le code] Sens commun[modifier | modifier le code] Théorie de l'information. Un article de Wikipédia, l'encyclopédie libre. La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer : Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Modèle de la communication de Shannon et Weaver. Claude Shannon. Un article de Wikipédia, l'encyclopédie libre. Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code] Shannon travaille vingt ans au MIT, de 1958 à 1978. Parallèlement à ses activités académiques, il travaille aussi aux laboratoires Bell de 1941 à 1972. Son œuvre[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l'armée américaine, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage. Le schéma de Shannon[modifier | modifier le code] Modèle de Shannon - Communication. Pour décrire la communication entre machines, l'article de 1948 et le livre de 1949 commencent tous deux par un « schéma » qui connut dès lors une postérité étonnante en sciences de l'information et de la communication (SIC), au point que Shannon s'en étonna et s'en dissocia[réf. nécessaire].

Entropie =