background preloader

Des machines enfin intelligentes ?

L’homme sait L’ordinateur ne sait rien Comment est-il possible que d’un ensemble de messages physico-chimiques, aussi aveugles que les zéros et 1 en informatique, émerge une conscience ? Nous sommes conscients de nous-même, c’est le moi, et conscients d’être conscients. Nous savons que nous savons ce que nous savons. Un ordinateur sait puisqu’il a stocké en mémoire des millions d’informations. Mais il n’en est aucunement conscient. Un ver de terre est conscient, mais n’en sait rien et se limite à une perception de son environnement immédiat relatif à sa survie.

https://lejournal.cnrs.fr/articles/des-machines-enfin-intelligentes

Related:  OrdinateursTendanceshistoire

À propos - HOP Agir localement, avec les citoyens Le système actuel repose sur la consommation, les clients jouent un rôle clef puisque les producteurs dépendent entièrement du comportement des acheteurs. Aussi le rôle, la responsabilité et le pouvoir des citoyens ne doit pas être sous-estimé. Loin d’être impuissants, ils détiennent un véritable pouvoir d’action si, plutôt que d’être divisés et isolés, ceux-ci s’organisent et coopèrent pour changer les règles du jeu.

« Humanités scientifiques et numériques  késako ? Dans la présentation du futur bac, une nouvelle discipline est prévue au lycée dans le socle de culture commune qui concernera les élèves de lycées quels que soient par ailleurs leurs choix de spécialités, il s’agit des “Humanités scientifiques et numériques”.Quelle est cette nouvelle discipline étrange ? nous avons cherché… L’intitulé complet “Humanités scientifiques et numériques” n’existait pas à notre connaissance avant l’annonce faite il y a quelques jours par le ministre, par contre “Humanités numériques” pré-existait ce qui devrait pouvoir contribuer à nous éclairer. Commençons par Wikipedia qui définit ainsi les “Humanités numériques” : “Les humanités numériques (ou digital humanities, abrégées « DH »2) sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales. La définition donnée sur le site de l’ENS pour le parcours “Humanités numériques” est la suivante :

Le modèle d’architecture de von Neumann Le tableau de ce qu’en 1945 on n’appelait pas encore l’informatique présente un paysage contrasté. D’un côté, la notion de calcul effectif a trouvé un cadre rigoureux grâce aux avancées d’une discipline nouvelle née dans les années 1930, la méta-mathématique. Le lambda-calcul du mathématicien Alonzo Church et la machine universelle (abstraite) d’Alan Turing, schémas dont Turing a montré l’équivalence, sont proposés en 1936 comme base de définition de l’algorithme, pièce maîtresse du processus calculatoire. D’un autre côté, plusieurs tentatives indépendantes visent à construire des machines électroniques ou électro-mécaniques capables d’exécuter des calculs complexes à grande vitesse. Les précurseurs en sont John Atanasoff en 1938 aux États-Unis et Konrad Zuse en 1941 en Allemagne. À gauche, John W.

1965-2020 : La loi de Moore est morte Faits & chiffres Les ordinateurs et tous les objets électroniques se basent sur un composant, le transistor, sorte d'interrupteur qui transforme un courant électrique en impulsions binaires. Les premiers processeurs, dans les années 1970, en comptaient quelques milliers. Au cœur des circuits électroniques, les transistors (à g.) ont vu leur taille divisée par 2 000 en 50 ans.

Informatique et numérique comme objets d’enseignement scolaire en France : entre concepts, techniques, outils et culture 1. Didactique de l’informatique : un milieu de recherche multifocal Le 7e colloque DidaPro – DidaSTIC, organisé à Lausanne en février 2018 (Parriaux, Pellet, Baron, Bruillard et Komis, 2018) témoigne de la vitalité et de la longévité d’une communauté de recherche s’intéressant à l’enseignement de l’informatique : en effet, le premier colloque de didactique de l’informatique a été organisé à l’Université Paris 5 dès 1988 (Baron, Baudé et Cornu, 1989). Quatre autres colloques de didactique de l’informatique ont suivi entre 1988 et 1996. Mais dans les décennies 1990 et 2000, en France aussi bien que dans les autres pays francophones, l’informatique a connu une éclipse comme objet d’enseignement, l’institution scolaire préférant développer l’usage des outils informatiques (voire d’un supposé « outil informatique »). Or, la recherche sur la didactique de l’informatique dépend du fait qu’elle soit enseignée, sinon il n’y a pas de terrain…

La Nasa réinvente les tubes à vide Avant le transistor, ce composant électronique qui a révolutionné le monde, il y avait le tube à vide. Gourmands en énergie, dégageant une forte chaleur, peu fiables et prenant une place considérable, ces tubes ont formé les unités de calcul des premiers ordinateurs et furent à ce titre les précurseurs de l'informatique moderne. Mais cette technologie devenue marginale pourrait revenir sur le devant de la scène grâce à la Nasa. Dans un article publié sur IEEE Spectrum, Jin-Woo Han et Meyya Meyyappan, chercheurs au Centre de recherche Ames de la Nasa, détaillent en effet comment ils ont créé un prototype de transistor utilisant un «canal à vide». Un tube à vide traditionnel est conceptuellement proche d'un transistor (mot-valise de transfer resistor, résistance de transfert), notamment d'un Mosfet (transistor à effet de champ à grille métal-oxyde). Une réinvention grâce aux nanotechnologies

Obsolescence programmée de l'iPhone : Apple accepte de payer 500 millions de dollars de dédommagement Apple a finalement consenti à verser jusqu’à 500 millions de dollars à des propriétaires d’iPhones américains qui l’accusaient d’avoir ralenti le fonctionnement de ses appareils. Des baisses de performances volontaires aux yeux de clients, dans le but de les inciter à acheter des modèles plus récents. Comme le rapporte Reuters, un accord financier a été donc trouvé entre les deux parties a été trouvé vendredi 28 février 2020, après deux ans de procédure. Apple n’a pas commenté cette décision. Apple s’est ainsi engagé à payer 310 millions de dollars au minimum – un chiffre qui pourra monter à 500 millions, si besoin – pour régler les frais d’avocat des propriétaires d’iPhones 6, 7 et SE, par ailleurs indemnisés à hauteur de 25 dollars chacun par appareil.

ANR - TRANSLIT La convergence de l’éducation aux médias, à l’information et à l’informatique s’affirme actuellement comme un des axes importants de transformation de la « culture de l’information ». Elle pose les bases de développement d’une « translittératie », dont la définition se situe à deux niveaux, pour appréhender la complexité des modes d’interaction avec l’information désormais disponibles pour l’usager: l’agencement multi-médias qui impose d’être capable de lire, écrire et compter avec tous les outils à disposition (de l’écrit à l’image, du livre au wiki); la maîtrise multi-domaines qui exige d’être capable de chercher, évaluer, valider, modifier l’information selon ses contextes d’usage (le code, l’actualité, le document…) L’objectif du projet TRANSLIT est de mettre en œuvre une exploration des implications socio-techniques, politiques, économiques et éducatives posées par cette translittératie en émergence.

Histoire des ordinateurs L'histoire des ordinateurs commence au milieu du XXe siècle. Si les premiers ordinateurs ont été réalisés après la Seconde Guerre mondiale, leur conception héritait de diverses expériences comme l'Harvard Mark I et le Z3, machines électromécaniques programmables commencées en 1939, et surtout de deux calculateurs électroniques : le Colossus du service de cryptanalyse britannique en 1943, l'ENIAC en 1945. À l'arrière-plan on peut mentionner des théories comme la « machine de Turing », ou des combinaisons de techniques bien plus anciennes comme les premières machines à calculer mécaniques (XVIIe siècle) et les premières machines à tisser automatisées par la lecture de cartes et de rubans perforés (XVIIIe siècle). Précurseurs[modifier | modifier le code] Premiers outils de calcul[modifier | modifier le code]

Intelligence artificielle - IA Interview : comment est née l'intelligence artificielle ? L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique lorsqu’il s’agit de prendre des décisions. Jean-Claude Heudin, directeur du laboratoire de recherche de l’IIM (Institut de l’Internet et du multimédia), nous explique l'origine de ces recherches. L'intelligence artificielle (IA, ou AI en anglais pour Artificial Intelligence) consiste à mettre en œuvre un certain nombre de techniques visant à permettre aux machines d'imiter une forme d'intelligence réelle. L'IA se retrouve implémentée dans un nombre grandissant de domaines d'application. La notion voit le jour dans les années 1950 grâce au mathématicien Alan Turing.

Enseignement 2017-2018 — Étudier les cultures du numérique : approches théoriques et empiriques : HABU Arrivé à sa dixième édition, ce séminaire propose un panorama des études contemporaines les plus innovantes et les plus significatives dans le domaine des humanités numériques et de la sociologie des usages des technologies de l'information et de la communication. Chaque séance de l'enseignement accueille des chercheurs internationaux et des « grands témoins » pour donner un aperçu de leurs expériences, des processus qu'ils ont mis en place pour former leurs objets de recherche, des nouvelles méthodologies qu'ils ont mobilisé, des débats qui animent les disciplines lorsqu'elles se proposent d'expliquer les phénomènes liés au numérique. Les usages actuels influencent non seulement les transformations des pratiques communicationnelles et productives, mais également l’émergence de nouvelles définitions de soi, de nouvelles subjectivités politiques, ainsi que de sociabilités inédites. This talk will unpack the three competing tensions for platforms in the age of big data.

Intelligence artificielle : définition, conseils, comparatifs, témoignages... Visant à simuler l'intelligence humaine, l'intelligence artificielle émerge depuis le début des années 2010, portée par le deep learning, le big data et l'explosion de la puissance de calcul. Derniers articles L'intelligence artificielle, qu'est-ce que c'est ?

L'AI se développe aujourd'hui garce au deep learning, par l'augmentation de la performance des machines ainsi que par l'abondance des données disponible. Cette AI est capable d’exécuter des taches de reconnaissance vidéo et audio. Elle peut identifier et quantifier automatiquement un grand nombre de données simultanément. En tout cas bien plus vite qu'un humain. Toutefois cela reste un outil qu'il faut piloter et l'AI n'est pas en mesure de faire emerger spontanément une réflexion ou un avis. Ce qui n'empêche pas certaines entreprise de promettre pour peu une Conscience Artificielle. by tacotaco Jan 10

Related: