background preloader

Loi de Moore

Loi de Moore
Un article de Wikipédia, l'encyclopédie libre. Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance des ordinateurs et de la complexité du matériel informatique. Au sens strict, on ne devrait pas parler de lois de Moore mais de conjectures de Moore puisque les énoncés de Moore ne sont en fait que des suppositions. Il existe en fait trois « lois » de Moore, deux authentiques (au sens où elles furent émises par Gordon E. Moore), et une série de « lois » qui ont en commun de se prétendre « loi de Moore » mais qui n'en sont que des simplifications inexactes. Croissance du nombre de transistors dans les microprocesseurs Intel par rapport à la loi de Moore. Énoncés[modifier | modifier le code] Le premier microprocesseur (Intel 4004) a été inventé en 1971. La Loi de Moore a été exprimée en 1965 dans « Electronics Magazine » par Gordon Moore, ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Autres facteurs[modifier | modifier le code] Related:  5.2. Construire un environnement numérique

La folle évolution du stockage informatique Films HD, MP3, photos, projets professionnels… Chaque jour, sans même y penser, nous produisons – et donc devons stocker – une masse toujours plus grande de données. Pourtant, l’époque où l’on avait besoin de 12 disquettes pour lancer un logiciel sur un ordinateur Atari n’est pas si lointaine. Au fur et à mesure de l’évolution de nos ordinateurs, puis de nos téléphones, il a fallu imaginer de nouveaux moyens pour compiler et retrouver toutes ces informations. 1890 : la carte perforée, une mémoire à 80 trous Au début du 18ème siècle, le Français Basile Bouchon eut l’idée de percer des rubans de tissu (puis de carton) pour automatiser son métier à tisser. 1928 : 50 octets par centimètre de bande magnétique La bande magnétique est l’une des plus anciennes ­méthodes de stockage et elle continue à être utilisée. 1971 : une image sur un disque grand comme une pizza 1982 : une disquette de la taille d'une poche de chemise 1984 : 80 minutes de musique sur les premiers CD-Rom Mathias Chaillot

L’Art social de la Révolution... - Pierre-Joseph Proudhon, Du pri... - INHA Introduction par Anne-Marie Bouchard Amalgamant le devenir historique des classes sociales (aristocratie et bourgeoisie) et le devenir social des formes de l’art (art pour l’art et art social), Pierre-Joseph Proudhon (1809-1865) propose dans Du principe de l’art et de sa destination socialeune lecture très personnelle de l’histoire de l’art des Égyptiens à Courbet, de laquelle il prétend extraire « la théorie la plus complète de l’art ». Le livre, qui paraît de manière posthume, est en effet une réponse à la demande de son ami Courbet d’un texte pour un catalogue, ainsi qu’à leurs interrogations communes sur le rôle social de l’art. L’aboutissement du socialisme, que Proudhon prévoit pour un avenir proche, motive son appel aux artistes à se rendre utiles. Pierre-Joseph PROUDHON, Du principe de l’art et de sa destination sociale, Paris, Garnier frères, 1865. 2Tout cela maintenant est fini. 3Chapitre XXV 4Conclusion. 11Cela est fatal, et les faits le prouvent. Lire le texte original 40h

Singularité technologique Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d'intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine[1],[2],[3]. Le risque serait que l'humanité perde le contrôle de son destin[4]. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine[3], la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains[5]. Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950[6] et ses conséquences ont été débattues dans les années 1960 par I. J. Lawrence Krauss et Glenn D.

Gordon Earle Moore Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Moore. Gordon Earle Moore Gordon Earle Moore, né le à San Francisco est un docteur en chimie et un chef d'entreprise américain. Biographie[modifier | modifier le code] Il naît le à San Francisco en Californie. Il est diplômé d'un Bachelor of Science en chimie de l'université de Californie à Berkeley en 1950 puis d'un doctorat en chimie et en physique du California Institute of Technology en 1954. Il épouse Betty, étudiante rencontrée à l'université. Il rejoint William Shockley (un de ses camarades d'université, Prix Nobel pour l'invention du transistor) au laboratoire Shockley Semiconductor Laboratory de la société Beckman Instruments, puis la quitte pour fonder la société Fairchild Semiconductor avec sept collaborateurs de son ex-employeur surnommés les 8 traîtres aux États-Unis : lui-même, Robert Noyce, Sheldon Roberts, Eugene Kleiner, Victor Grinich, Julius Blank, Jean Hoerni et Jay Last. Galerie photo

Apprendre facilement à utiliser la méthodologie Scrum | Le blog de Newave Qu’est-ce qu’une méthode agile ? Si vous n’avez encore jamais entendu parler des méthodes agiles, nous allons faire ensemble un bref résumé. Les méthodes agiles sont des méthodologies utilisées lors de la réalisation de projets informatiques. Elles reposent sur des cycles de développement itératifs et adaptatifs en fonction des besoins évolutifs du client. Elles permettent de rapidement cerner les attentes de celui-ci et d’y répondre au mieux en l’impliquant au maximum dans le processus de développement. Les méthodes agiles ont 4 valeurs et 12 princes de base communs. Les quatre valeurs : Les individus et leurs interactions plus que les processus et les outils.Du logiciel qui fonctionne plus qu’une documentation exhaustive.La collaboration avec les clients plus que la négociation contractuelle.L’adaptation au changement plus que le suivi d’un plan. Les douze principes sont à lire ici. Il existe plusieurs méthodes agiles. Scrum est la méthode agile la plus utilisée. C’est-à-dire : 1. 2. 3.

Stockage d'information Le stockage d'information est aujourd'hui assuré par un support d'information électronique, ou électromagnétique, qui, vu de l'utilisateur, peut être physique (disque dur, clé USB, etc.) ou virtuel (Internet dénommé le « nuage » (en anglais cloud voire en franglais « le cloud »), mais qui en l'état de la technologie est enregistré sur un support physique (SSD, disque dur, CD/DVD, bande magnétique, etc.). Ainsi, le terme de « dématérialisation » employé pour désigner le passage d'un support d'information papier à un support électronique est peu approprié, puisque ce dernier est lui aussi lié à du matériel. Le choix de la méthode de stockage se fait selon plusieurs critères : la fréquence d'utilisation ;les besoins capacitaires de l'information (taille) ;la criticité de l'information (coût, sécurité) ;La capacité de stockage et la vitesse d’accès à l'information. Classification des technologies de stockage[modifier | modifier le code] Positionnement des différents types de stockage.

Art interactif Un article de Wikipédia, l'encyclopédie libre. L’art interactif est une forme d'art dynamique qui réagit à son public et/ou à son environnement, une nouvelle manière de désigner l'art numérique mais seul le traitement computationnel de l'information est virtuel[1]. Contrairement aux formes d'art traditionnelles où l'interaction du spectateur est surtout un événement mental – de l'ordre de la réception – l'art interactif permet différents types de navigation, d'assemblage, ou de participation à l'œuvre d'art, qui va bien au-delà de l'activité purement psychologique. Les installations artistiques interactives sont généralement informatiques et utilisent des capteurs, qui mesurent des événements tels que la température, le mouvement, la proximité, les phénomènes météorologiques que l'auteur a programmé de manière à obtenir des réponses ou réactions particulières. Définitions de l'art interactif[modifier | modifier le code] Origines[modifier | modifier le code] Rôle du spectateur dans l'art

Auto-organisation Un article de Wikipédia, l'encyclopédie libre. C'est une tendance, tant au niveau des processus physiques ou des organismes vivants, que des systèmes sociaux, à s'organiser d'eux-mêmes ; on parle aussi d'auto-assemblage. Passé un seuil critique de complexité, les systèmes peuvent changer d'état, ou passer d'une phase instable à une phase stable. Ils peuvent aussi passer : d'une croissance lente à une croissance accéléréed'une croissance au début d'apparence exponentielle à une croissance logistique avec la déplétion des ressources. Le terme auto-organisation fait référence à un processus dans lequel l'organisation interne d'un système, habituellement un système hors équilibre, augmente automatiquement sans être dirigée par une source extérieure. Enjeux de l'auto-organisation[modifier | modifier le code] Parfois la notion d'auto-organisation est associée à la notion d'émergence. Histoire de l'auto-organisation[modifier | modifier le code] ....la suite est en cours de traduction ....

UNIVAC I Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec Multivac. Une démonstration de l'UNIVAC I L'UNIVAC I (UNIVersal Automatic Computer I) est le premier ordinateur commercial réalisé aux États-Unis. Le premier ordinateur est livré à l'United States Census Bureau le et mis en service le 14 juin. Les ordinateurs étaient fabriqués par Univac, une filiale de Remington Rand. L'UNIVAC a été un symbole de l'informatique, apparaissant entre autres dans Objectif Lune de Hergé et Un cerveau d'un milliard de dollars de Ken Russel Description[modifier | modifier le code] UNIVAC I utilise 5 200 tubes à vide, pèse 13 tonnes, consomme 125 kW pour une puissance de calcul de 1905 opérations par seconde avec une horloge à 2,25 MHz. Un canal de 10 mots est composé de trois sections: Les instructions permettant de contrôler l'ordinateur font 36 bits de long et sont rassemblées deux à deux dans un mot. Voir aussi[modifier | modifier le code] Articles connexes[modifier | modifier le code]

Comment structurer un paragraphe ? - Méthodologie Nous allons vous présenter une méthode pour construire un paragraphe avec un schéma de la structure à suivre. Ensuite nous vous dirons tous nos secrets sur les pièges à éviter. Les paragraphes sont les entités de base utilisées pour construire l’argumentation d’un mémoire, d’une thèse ou d’un rapport de stage. Premiers conseils Une idée principale par paragraphe L’objectif d’un paragraphe est de soutenir une affirmation, ou une idée, qui contribue à établir la thèse globale ou l’intention du mémoire. Conseil L’une des meilleures façons de s’assurer qu’un paragraphe est clairement relié à la thèse principale consiste à vérifier qu’il possède une bonne idée principale. Chaque phrase du paragraphe doit soutenir l’idée principale de ce paragraphe (de la même manière que chaque paragraphe devrait contribuer au déploiement de la thèse). Des transitions entre les phrases Les phrases devraient également être connectées entre elles : il est donc essentiel de faire de bonnes transitions. Exemple

Chronologie - Internet dans le monde - Dossiers 1957Dans le contexte de la Guerre froide, le ministère américain de la Défense souhaite trouver une solution au risque de blocage de la transmission des informations, alors centralisée, en cas d'attaque nucléaire sur son sol, par l'emploi d'un réseau tissé. Il crée ARPA : Advanced Research Projects Agency, qui conduira à la création d'ARPANET, ancêtre d'internet. Août 1968Présentation du réseau à l'armée américaine : le projet ARPANET (Advanced Research Projects Agency Network), proposant une communication décentralisée par paquets, est approuvé. En Grande-Bretagne, premier réseau à commutation de paquets. 2 septembre 1969Connexion des premiers ordinateurs entre 4 universités américaines : le premier noeud de raccordement d'Arpanet est installé dans l'université de Columbia (Etat de New York), puis dans celles de Californie, d'Utah, et dans l'Institut de recherche de Stanford. Mars 1972Le premier courrier électronique est envoyé. 16 décembre 2003Loi anti-spam adoptée aux Etats-Unis.

Art numérique L'art numérique désigne un ensemble varié de catégories de création utilisant les spécificités du langage et des dispositifs numériques, ordinateur, interface ou réseau. Il s'est développé comme genre artistique depuis le début des années 1960[1]. Portée par la puissance de calcul de l'ordinateur et le développement d'interfaces électroniques autorisant une interaction entre le sujet humain, le programme et le résultat de cette rencontre, la création numérique s'est considérablement développée en déclinant des catégories artistiques déjà bien identifiées. En effet, des sous-catégories spécifiques telles que la « réalité virtuelle », la « réalité augmentée », « l’art génératif », « l’art interactif », "intelligence artificielle" viennent compléter les désignations techniques du Net-art, de l'imagerie numérique ou de l'art robotique. Expositions et événements consacrés aux arts numériques[modifier | modifier le code] Quelques artistes et leurs œuvres[modifier | modifier le code]

Effet papillon Un article de Wikipédia, l'encyclopédie libre. L' « effet papillon » est une expression qui résume une image concernant le phénomène fondamental de sensibilité aux conditions initiales en théorie du chaos. Elle est parfois exprimée à l'aide d'une question : « Un simple battement d'ailes d'un papillon peut-il déclencher une tornade à l'autre bout du monde ? ». Une nouvelle de science-fiction fondatrice[modifier | modifier le code] La conférence essentielle[modifier | modifier le code] En 1972, le météorologue Edward Lorenz fait une conférence à l'American Association for the Advancement of Science intitulée[1] : « Predictability: Does the Flap of a Butterfly's Wings in Brazil Set off a Tornado in Texas? « Prédictibilité : le battement d'ailes d'un papillon au Brésil peut-il provoquer une tornade au Texas ? Lorenz explique[2] : « De crainte que le seul fait de demander, suivant le titre de cet article, "un battement d'aile de papillon au Brésil peut-il déclencher une tornade au Texas ?" Newton

Electronic Numerical Integrator Analyser and Computer Un article de Wikipédia, l'encyclopédie libre. L'ENIAC (acronyme de l'expression anglaise Electronic Numerical Integrator Analyser and Computer), est le premier ordinateur entièrement électronique construit pour être Turing-complet. Il peut être reprogrammé pour résoudre, en principe, tous les problèmes calculatoires. Histoire[modifier | modifier le code] Le principe de l'ENIAC vient d'une idée de John William Mauchly, professeur de physique. Participant à une conférence à l'Ursinus College, il voit des analystes produire des tables de tir, il se rend compte que ces calculs pourraient être réalisés électroniquement. Le , il est dévoilé au public à l'Université de Pennsylvanie à Philadelphie puis est transféré à Aberdeen Proving Ground, un laboratoire de l'US Army au Maryland, en 1947 où il est remis en marche le 29 juillet et commence les calculs des tables de tirs. Caractéristiques[modifier | modifier le code] Détail d'un panneau de contrôle de l'ENIAC

Related: