background preloader

A.I. le point de non-retour

Facebook Twitter

Stephen Hawking: Sous-estimer l’intelligence artificielle serait «la plus grave erreur de notre histoire» L’intelligence artificielle fait fantasmer et trembler.

Stephen Hawking: Sous-estimer l’intelligence artificielle serait «la plus grave erreur de notre histoire»

D’Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série «Battlestar Galactica», les possibles dangers pour l’homme d’une machine intelligente ont déjà été explorés dans d’innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l’intelligence artificielle, la science rejoint la science-fiction. «Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l’humanité» «Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme, écrit l’éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Plus d'informations sur ce sujet en vidéo. Piloté par la pensée. Ghost in the shell en vrai. J'ai un peu de mal à croire à cette connerie que m'a envoyé Ravaged, mais d'après 24matins et d'autres, Ken Hayworth, un scientifique américain de Harvard ayant bossé pour la NASA et étant un adepte du transhumanisme, a mis au point un moyen permettant de transférer un esprit dans une machine.

Pour cela, il a inventé un procédé chimique pour conserver le cerveau et les nerfs rachidiens en remplaçant l'eau de son cerveau par une résine. Ainsi, chacun de ses neurones et synapses sera conservé ainsi à l'abri de la dégradation et la "carte" de son cerveau baptisé connectome restera intacte. Ses tests sur des souris auraient été concluants, du coup, à 41 ans, il devrait prochainement organiser une petite fête pour dire au revoir à ses amis et sa famille et essayer sur lui-même son système "d'immortalité" par le transfert d'esprit. Des médecins vont lui injecter un truc qui va le tuer et son cerveau sera conservé, découpé et numérisé pour être mis dans l'ordinateur et relié à un robot.

DARPA Building Robots With ‘Real’ Brains. AI. Les supercalculateurs. Singularité technologique. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d'intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine[1],[2],[3].

Singularité technologique

Le risque serait que l'humanité perde le contrôle de son destin[4]. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine[3], la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains[5]. Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950[6] et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Lawrence Krauss et Glenn D. [INFOHIGHTECH]