background preloader

Des machines enfin intelligentes ?

L’homme sait L’ordinateur ne sait rien Comment est-il possible que d’un ensemble de messages physico-chimiques, aussi aveugles que les zéros et 1 en informatique, émerge une conscience ? Nous sommes conscients de nous-même, c’est le moi, et conscients d’être conscients. Nous savons que nous savons ce que nous savons. Un ordinateur sait puisqu’il a stocké en mémoire des millions d’informations. Mais il n’en est aucunement conscient. Un ver de terre est conscient, mais n’en sait rien et se limite à une perception de son environnement immédiat relatif à sa survie.

https://lejournal.cnrs.fr/articles/des-machines-enfin-intelligentes

Related:  OrdinateursTendances`test 1014histoire

À propos - HOP Agir localement, avec les citoyens Le système actuel repose sur la consommation, les clients jouent un rôle clef puisque les producteurs dépendent entièrement du comportement des acheteurs. Aussi le rôle, la responsabilité et le pouvoir des citoyens ne doit pas être sous-estimé. Loin d’être impuissants, ils détiennent un véritable pouvoir d’action si, plutôt que d’être divisés et isolés, ceux-ci s’organisent et coopèrent pour changer les règles du jeu.

« Humanités scientifiques et numériques  késako ? Dans la présentation du futur bac, une nouvelle discipline est prévue au lycée dans le socle de culture commune qui concernera les élèves de lycées quels que soient par ailleurs leurs choix de spécialités, il s’agit des “Humanités scientifiques et numériques”.Quelle est cette nouvelle discipline étrange ? nous avons cherché… L’intitulé complet “Humanités scientifiques et numériques” n’existait pas à notre connaissance avant l’annonce faite il y a quelques jours par le ministre, par contre “Humanités numériques” pré-existait ce qui devrait pouvoir contribuer à nous éclairer. Commençons par Wikipedia qui définit ainsi les “Humanités numériques” : “Les humanités numériques (ou digital humanities, abrégées « DH »2) sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales. La définition donnée sur le site de l’ENS pour le parcours “Humanités numériques” est la suivante :

Synapse artificielle : le memristor, chaînon manquant vers le cerveau électronique MICROPROCESSEUR. Le 3 avril 2017, une équipe française (CNRS, Thales, Universités de Bordeaux, Paris-Sud et Evry) publiait dans Nature Communications un article décrivant une synapse artificielle (élément électronique appelé memristor) qui pourrait bien révolutionner l'apprentissage machine profond (deep learning). Afin de mieux comprendre la portée de la découverte, Sciences et Avenir s'est entretenu avec Vincent Garcia, chercheur en nanosciences et co-auteur de l'étude. Le modèle d’architecture de von Neumann Le tableau de ce qu’en 1945 on n’appelait pas encore l’informatique présente un paysage contrasté. D’un côté, la notion de calcul effectif a trouvé un cadre rigoureux grâce aux avancées d’une discipline nouvelle née dans les années 1930, la méta-mathématique. Le lambda-calcul du mathématicien Alonzo Church et la machine universelle (abstraite) d’Alan Turing, schémas dont Turing a montré l’équivalence, sont proposés en 1936 comme base de définition de l’algorithme, pièce maîtresse du processus calculatoire. D’un autre côté, plusieurs tentatives indépendantes visent à construire des machines électroniques ou électro-mécaniques capables d’exécuter des calculs complexes à grande vitesse. Les précurseurs en sont John Atanasoff en 1938 aux États-Unis et Konrad Zuse en 1941 en Allemagne. À gauche, John W.

1965-2020 : La loi de Moore est morte Faits & chiffres Les ordinateurs et tous les objets électroniques se basent sur un composant, le transistor, sorte d'interrupteur qui transforme un courant électrique en impulsions binaires. Les premiers processeurs, dans les années 1970, en comptaient quelques milliers. Au cœur des circuits électroniques, les transistors (à g.) ont vu leur taille divisée par 2 000 en 50 ans.

Informatique et numérique comme objets d’enseignement scolaire en France : entre concepts, techniques, outils et culture 1. Didactique de l’informatique : un milieu de recherche multifocal Le 7e colloque DidaPro – DidaSTIC, organisé à Lausanne en février 2018 (Parriaux, Pellet, Baron, Bruillard et Komis, 2018) témoigne de la vitalité et de la longévité d’une communauté de recherche s’intéressant à l’enseignement de l’informatique : en effet, le premier colloque de didactique de l’informatique a été organisé à l’Université Paris 5 dès 1988 (Baron, Baudé et Cornu, 1989). Quatre autres colloques de didactique de l’informatique ont suivi entre 1988 et 1996. Mais dans les décennies 1990 et 2000, en France aussi bien que dans les autres pays francophones, l’informatique a connu une éclipse comme objet d’enseignement, l’institution scolaire préférant développer l’usage des outils informatiques (voire d’un supposé « outil informatique »). Or, la recherche sur la didactique de l’informatique dépend du fait qu’elle soit enseignée, sinon il n’y a pas de terrain…

Ce que l’intelligence artificielle peut apporter à l’éducation Entre promesses, fantasmes et peurs, l’intelligence artificielle constitue désormais un « enjeu majeur » pour notre société, comme l’a rappelé le secrétaire d’Etat chargé du numérique Christophe Sirugue, à l’occasion du dévoilement de la stratégie « France IA », le 21 mars 2017. D’ici dix ans, 1,5 milliard d’euros pourrait être investi dans ce domaine qui touche l’automobile, la finance, la sécurité, mais aussi l’éducation. En 2012, un site américain listait déjà les 10 manières dont l’intelligence artificielle pourrait réinventer l’éducation : 1.

La Nasa réinvente les tubes à vide Avant le transistor, ce composant électronique qui a révolutionné le monde, il y avait le tube à vide. Gourmands en énergie, dégageant une forte chaleur, peu fiables et prenant une place considérable, ces tubes ont formé les unités de calcul des premiers ordinateurs et furent à ce titre les précurseurs de l'informatique moderne. Mais cette technologie devenue marginale pourrait revenir sur le devant de la scène grâce à la Nasa. Dans un article publié sur IEEE Spectrum, Jin-Woo Han et Meyya Meyyappan, chercheurs au Centre de recherche Ames de la Nasa, détaillent en effet comment ils ont créé un prototype de transistor utilisant un «canal à vide». Un tube à vide traditionnel est conceptuellement proche d'un transistor (mot-valise de transfer resistor, résistance de transfert), notamment d'un Mosfet (transistor à effet de champ à grille métal-oxyde). Une réinvention grâce aux nanotechnologies

Obsolescence programmée de l'iPhone : Apple accepte de payer 500 millions de dollars de dédommagement Apple a finalement consenti à verser jusqu’à 500 millions de dollars à des propriétaires d’iPhones américains qui l’accusaient d’avoir ralenti le fonctionnement de ses appareils. Des baisses de performances volontaires aux yeux de clients, dans le but de les inciter à acheter des modèles plus récents. Comme le rapporte Reuters, un accord financier a été donc trouvé entre les deux parties a été trouvé vendredi 28 février 2020, après deux ans de procédure. Apple n’a pas commenté cette décision. Apple s’est ainsi engagé à payer 310 millions de dollars au minimum – un chiffre qui pourra monter à 500 millions, si besoin – pour régler les frais d’avocat des propriétaires d’iPhones 6, 7 et SE, par ailleurs indemnisés à hauteur de 25 dollars chacun par appareil.

ANR - TRANSLIT La convergence de l’éducation aux médias, à l’information et à l’informatique s’affirme actuellement comme un des axes importants de transformation de la « culture de l’information ». Elle pose les bases de développement d’une « translittératie », dont la définition se situe à deux niveaux, pour appréhender la complexité des modes d’interaction avec l’information désormais disponibles pour l’usager: l’agencement multi-médias qui impose d’être capable de lire, écrire et compter avec tous les outils à disposition (de l’écrit à l’image, du livre au wiki); la maîtrise multi-domaines qui exige d’être capable de chercher, évaluer, valider, modifier l’information selon ses contextes d’usage (le code, l’actualité, le document…) L’objectif du projet TRANSLIT est de mettre en œuvre une exploration des implications socio-techniques, politiques, économiques et éducatives posées par cette translittératie en émergence.

Un rapport alerte sur les risques d’utilisation malveillante de l’intelligence artificielle Vingt-six experts s’inquiètent que l’IA facilite la manipulation d’élections et renforce la cybercriminalité avec l’utilisation de drones ou de robots à des fins terroristes. Le scénario de drones ou de robots détournés à des fins terroristes continue d’inquiéter. Des experts internationaux sonnent l’alarme sur les risques d’une utilisation malveillante de l’intelligence artificielle (IA) par « des États voyous, des criminels, des terroristes », dans un rapport publié mercredi 21 février. Selon eux, dans les dix prochaines années, l’efficacité croissante de l’IA risque de renforcer la cybercriminalité mais aussi de faciliter la manipulation d’élections via les réseaux sociaux grâce à des comptes automatisés (bots).

Histoire des ordinateurs L'histoire des ordinateurs commence au milieu du XXe siècle. Si les premiers ordinateurs ont été réalisés après la Seconde Guerre mondiale, leur conception héritait de diverses expériences comme l'Harvard Mark I et le Z3, machines électromécaniques programmables commencées en 1939, et surtout de deux calculateurs électroniques : le Colossus du service de cryptanalyse britannique en 1943, l'ENIAC en 1945. À l'arrière-plan on peut mentionner des théories comme la « machine de Turing », ou des combinaisons de techniques bien plus anciennes comme les premières machines à calculer mécaniques (XVIIe siècle) et les premières machines à tisser automatisées par la lecture de cartes et de rubans perforés (XVIIIe siècle). Précurseurs[modifier | modifier le code] Premiers outils de calcul[modifier | modifier le code]

L'AI se développe aujourd'hui garce au deep learning, par l'augmentation de la performance des machines ainsi que par l'abondance des données disponible. Cette AI est capable d’exécuter des taches de reconnaissance vidéo et audio. Elle peut identifier et quantifier automatiquement un grand nombre de données simultanément. En tout cas bien plus vite qu'un humain. Toutefois cela reste un outil qu'il faut piloter et l'AI n'est pas en mesure de faire emerger spontanément une réflexion ou un avis. Ce qui n'empêche pas certaines entreprise de promettre pour peu une Conscience Artificielle. by tacotaco Jan 10

Related: