Bienvenue sur ma page Pearltrees dédiée à ma veille technologique ! Fusion nucléaire : une intelligence artificielle parvient à anticiper les instabilités du plasma. Des chercheurs aux États-Unis ont mis au point une intelligence artificielle pour prévoir les instabilités dans le plasma pendant une réaction de fusion nucléaire. Bien plus rapide que les humains, l’IA peut ensuite ajuster la réaction pour stabiliser le plasma. La fusion nucléairefusion nucléaire pourrait à l'avenir offrir à l'humanité une source d’énergie propre et quasiment illimitée. Tout du moins si les chercheurs parviennent à résoudre certains obstacles de taille. Tout se passe à l'intérieur de réacteurs tokamak, qui fonctionnent avec un plasma à une température extrêmement élevée (plus de 100 millions de degrés Celsiusdegrés Celsius), contenu par des champs magnétiqueschamps magnétiques.
Des instabilités peuvent surgir au sein du plasma, mettant fin à la réaction. Les chercheurs ont fait appel à un réseau neuronal pour entraîner un algorithme d'apprentissage par renforcement, en s'appuyant uniquement sur les données de précédentes expériences. GeForce RTX : Nvidia veut optimiser ses drivers avec une Intelligence artificielle. Nvidia travaille actuellement sur la sortie de nouveaux pilotes à destination de ses cartes graphiques GeForce RTX. Et la marque s'apprête à une évolution majeure, notamment grâce à l'intégration de l'intelligence artificielle dans ses drivers. La marque a déjà exploité l'IA à des fins graphiques, notamment pour le développement de sa technologie DLSS. Cette fois, c'est le compte Twitter de CapFrameX qui évoque le fait que Nvidia exploiterait de l'IA pour optimiser ses drivers avec quelques promesses très alléchantes.
[Rumor] Nvidia is working on AI optimized drivers. Release maybe this year (Q1). ▶️ Up to 30% more performance▶️ Average improvement ~10%▶️ No info about specific genTake this with a grain of salt. If true Nvidia drivers will be real "fine wine". pic.twitter.com/QGTUL9iK7N — CapFrameX (@CapFrameX) January 8, 2023 La sortie de ces pilotes serait prévue au début de l'année. Cette page peut contenir des liens affiliés. Intelligence artificielle : voici ce qui nous attend en 2023. En 2022, l'intelligence artificielle (IA) a fait preuve de créativité. Les modèles d'IA peuvent désormais produire du texte, des images et même des vidéos très convaincantes et pour cela ils ont juste besoin d'un petit coup de main.
Neuf mois plus tôt, OpenAI a révolutionné l'IA générative avec la sortie de DALL-E 2, un modèle deep-learning (ou apprentissage profond, en français) capable de produire des images à partir d'instructions textuelles. Suite à cela, Google et Meta ont également apporté leur contribution avec des IA capables de produire des vidéos à partir de texte.
Et il y a quelques semaines seulement, OpenAI a lancé ChatGPT, le dernier modèle de langage étendu qui a enflammé Internet grâce à son éloquence et la surprenante cohérence de ses réponses. En 2022, le rythme effréné de l'innovation a été remarquable - et parfois écrasant. Qui aurait pu anticiper cela ? La suite sous cette publicité La révolution ChatGPT À quoi devons-nous nous attendre ? Quelle éthique pour l’utilisation de l’intelligence artificielle dans la santé? ChatGPT: l'intelligence artificielle détournée pour créer des logiciels malveillants.
Des chercheurs en cybercriminalité ont découvert que des pirates utilisent ChatGPT pour créer des logiciels malveillants, des rançongiciels et des spams. L'outil ChatGPT, développé par OpenAI et doté d'une intelligence artificielle, est aussi utilisé à mauvais escient par des pirates informatiques. Des chercheurs de Check Point Research estiment que l'outil est susceptible d'aider des cybercriminels pour améliorer ou créer du code de logiciels malveillants et rançongiciels. L'équipe de chercheurs a publié les résultats de ses travaux, ce 6 janvier, indiquant avoir repéré de nombreux messages sur des forums du dark web dans lesquels des cybercriminels échangent des procédés sur la création de logiciels malveillants avec l'aide de ChatGPT.
Ce qui inquiète les chercheurs est avant tout le fait que ChatGPT aide les novices en cybercriminalité à appréhender le monde du code informatique. Les chercheurs se sont eux mêmes essayé au développement de logiciels malveillants produits par ChatGPT. Xiaomi dévoile son premier robot humanoïde fonctionnel. Le Chinois Xiaomi a un coup d’avance sur Tesla en dévoilant dès maintenant son propre robot humanoïde fonctionnel. Il est doté d’une IA qui lui permet de voir son environnement en 3D et d’interpréter les sons et les émotions. Début juillet, Elon MuskElon Musk annonçait l'arrivée de son robot humanoïderobot humanoïde Optimus, avec un prototype fonctionnel pour la fin septembre. Voilà que le Chinois Xiaomi lui grille la priorité en dévoilant dès maintenant son propre prototype de robot humanoïde fonctionnel. Lors d'une présentation retransmise en direct, le robot s'est déplacé au milieu de la scène et a tendu une fleur à Lei Jun, le patron de Xiaomi avant de poser avec lui pour un selfie.
Il s'appelle CyberOne, mesure 177 cm et pèse 52 kgkg ; le constructeur lui a même donné comme surnom « Tie Da ». Le robot est doté d'une tête composée d'une dalle OledOled incurvée. Le Chinois Xiaomi a dévoilé, CyberOne, son robot humanoïde fonctionnel. © Xiaomi. Ce robot apprend ses fonctions d’assistant tout seul grâce au Web. Google a mis au point un robot domestique dont l’IA est capable de comprendre des phrases et d’y réagir correctement sans jamais avoir été programmé pour cela. Le robot s’appuie sur un puissant modèle de langage allant chercher les informations nécessaires sur le Web. Énoncer la commande vocale « J'ai faim » à un robot pour qu'il rapporte quelque chose à manger, cela pourrait sembler presque normal ou du moins faisable en 2022.
Et pourtant, lorsque l'on sait que le robot en question n'a jamais été programmé pour comprendre ce qu'il faut faire pour répondre à cette requête, cela reste très impressionnant. Ce robot domestique, issu des laboratoires de GoogleGoogle et conçu par Fei Xia, un chercheur de la firme, vient de faire la démonstration de ses capacités. Cela veut dire qu'il n'y a pas besoin d'enrichir le robot avec de nombreuses commandes vocales, comme c'est le cas avec les assistants virtuels comme AlexaAlexa, SiriSiri ou l'assistant Google. ChatGPT fait peur à Google ! Chez Google, on craint que ChatGPT ne vienne engendrer une révolution dans les moteurs de recherche qui pourrait mettre fin à l’ère du géant d’Internet. C'est incontestable, le ChatGPT d'OpenAI est devenu en quelques semaines l'attraction numéro 1 de l'Intelligence artificielle, ouverte au grand public.
ChatGPTChatGPT a réponse à presque tout sur la forme, même si c'est parfois de façon plus convaincante que sur le fond. Les puissants algorithmes de cette IA impressionnent et inquiètent. Outre les interrogations éthiques, il y a celles qui tournent autour de l'économie. Et c'est de ce côté-là que lorgne du coin de l'œilœil la direction de GoogleGoogle. Interloquée par l'efficacité et la popularité de l'IA, selon les informations du New York Times, l'équipe de direction du géant de l'Internet aurait déclenché un « code rouge » pour son propre moteur de recherche. Les algorithmes de ChatGPT ne fonctionnent pas comme ceux des moteurs de recherche habituels.
Les IA qui génèrent du code ajoutent des failles de sécurité ! Des chercheurs de l’université de Stanford ont découvert que le code généré automatiquement par l’intelligence artificielle Codex d’OpenAI n’était pas fiable lorsqu’on lui demande de renforcer la sécurité d'un programme. L’IA vient ajouter des failles qu’un humain ne laisserait pas passer en temps normal. Réaliser sa rédaction à partir de l'IAIA imaginative de ChatGTP permet sans doute de faire illusion devant les enseignants, mais lorsque les IA se mettent à coder, cela se voit. Une étude réalisée par des chercheurs affiliésaffiliés à l'université de Stanford, aux États-Unis, révèle que les développeurs qui utilisent des IA pour générer automatiquement du code sont plus susceptibles de créer des failles de sécurité dans les applicationsapplications que si le travail avait été réalisé manuellement.
Au final, lorsqu'il s'agit de gagner du temps pour développer en utilisant une IA, il faut nécessairement en perdre pour vérifier sa qualité, selon les chercheurs. Google reportedly leaving Project Maven military AI program after 2019. Google has decided not to renew its contact for a controversial Department of Defense program known as Project Maven, which involved Google helping the US government analyze drone footage using artificial intelligence. The news, reported today by Gizmodo, was announced internally today by Google Cloud chief Diane Greene at a meeting with employees. The contract allegedly expires in 2019.
Greene’s announcement comes just days after news that Google will be announcing a new set of ethical principles to guide the development of military AI, which is set to be revealed next week. Google was not immediately available for comment. The decision should calm unrest at Google that has been growing for months since the company’s involvement with Project Maven was revealed in March in an investigation by Gizmodo.
Google faced immense pressure from employees and outside critics over its involvement in drone warfare. Quand l'IA se met au service du pré-diagnostic des maladies rares. Sanofi et la société M.I.S (Medical Intelligence Service), experte de l'intelligence artificielle médicale, ont officiellement annoncé leur partenariat pour le développement d’un algorithme d’IA de pré-diagnostic des maladies rares. Nommé AccelRare®, son déploiement est prévu pour fin 2022. L’IA pour le pré-diagnostic des maladies rares Destiné aux médecins généralistes, médecins de ville et pédiatrespédiatres, l'outil AccelRare® a pour ambition d'accélérer le pré-diagnostic de 270 maladies rares, disposant d'un traitement ou d'une prise en charge adaptée.S'appuyant sur l'outil préexistant MedVirTM développé par M.I.S, et fruit de plus de 30 ans de recherches médicales, AccelRare® permettra aux médecins de saisir dans le logiciellogiciel les symptômes et les signes cliniques du patient en situation atypique.
Écoutez l'interview d'Étienne Van der Elst, menée lors du salon Vivatech en juin 2022. © Futura Prochainement en phase de test Un enjeu de santé publique La Healthtech en pleine forme. Ce robot plie le linge à votre place. Des chercheurs aux États-Unis ont créé un robot qui plie le linge. Si ce n’est pas le premier de ce genre, il est 5 à 10 fois plus rapide que les systèmes issus de précédents travaux dans ce domaine. Bientôt la fin de la corvée de pliage du linge ? Des chercheurs de l'université de Californie à Berkeley ont créé un robot capable d'effectuer cette tâche étonnamment complexe, et bien plus rapidement que tout autre robot similaire.
Ils ont baptisé leur système SpeedFolding. Dans leur article qui sera présenté à la conférence de robotique IROS2022, à Kyoto (Japon) la semaine prochaine, ils détaillent le fonctionnement de leur création et les obstacles rencontrés. Démonstration du robot SpeedFolding qui parvient à poser un vêtement à plat et à le plier selon un schéma prédéfini. © UC Berkeley Le robot est capable de plier un vêtement en moins de 120 secondes en moyenne, soit 30 à 40 pliages par heure. Intelligence artificielle : les risques d'une utilisation malveillante. Des experts internationaux sonnent l'alarme sur les risques d'une utilisation malveillante de l'intelligence artificielle (IA) par « des États voyous, des criminels, des terroristes », dans un rapport publié mercredi.
Selon eux, dans les dix prochaines années, l'efficacité croissante de l'IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Celle-ci est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociauxréseaux sociaux grâce à des comptes automatisés (bots). Ce rapport de 100 pages intitulé The Malicious Use of Artificial Intelligence a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ceux-ci travaillent pour des universités (Cambridge, Oxford, Yale, Stanford) et des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation). La cybercriminalité à grande échelle Appel à l'action.
Le danger que représente l’intelligence artificielle. Bien que l’intelligence artificielle soit devenue un élément indissociable de notre quotidien, elle représente aussi un danger. En effet, malgré ses nombreux avantages, certains aspects de l’IA révèlent des inconvénients dont les conséquences pourraient être dévastatrices. Depuis sa création, l’intelligence artificielle se présente comme une solution révolutionnaire à nos problèmes quotidiens. Elle a même des applications au niveau planétaire. Mais, l’IA reste aussi jusqu’à ce jour un véritable sujet de controverse. Certains soutiennent que plus cette technologie évolue, plus elle devient dangereuse et ce n’est pas complètement faux. L’intelligence artificielle, un danger ou non ?
Commençons par un petit rappel de ce qu’est l’intelligence artificielle. Par ailleurs, une sous-catégorie de l’IA, le machine learning, permet aux ordinateurs d’apprendre eux-mêmes à résoudre des problèmes. Le champ d’application de l’IA s’élargit à mesure que la technologie évolue. La controverse de l’IA. Une IA avec une vision supérieure à celle de l'œil humain.
D'ici cinq à dix ans, ce dispositif basé sur un réseau neuronal artificiel verra comme l'œil humain et même mieux puisque qu'il sera à même de percevoir aussi bien l'ultraviolet que la lumière normale. Les potentielles applications de cette Intelligence artificielle s'orientent d'ores et déjà vers la robotique et la conduite autonome. Des chercheurs de l'université de Floride centrale ont dévoilé une nouvelle Intelligence artificielle capable de voir, de reconnaître les formes et d'identifier des objets.
Cette technologie pourrait être utilisée dans la robotique ou bien pour améliorer les systèmes de voiture autonomes. La vue serait-elle alors un nouveau sens bientôt débloqué pour les Intelligences artificielles ? C'est en tout cas le projet de ses chercheurs de l'université de Floride centrale. De plus, le dispositif n'a pas besoin d'être multiplié, et la puce, très compacte, fait la même taille qu'un pouce. Meta : quand le chatbot de Facebook tourne au conspirationnisme. Plus d’un demi-siècle après leur première apparition en 1966, les chatbots sont toujours d’actualité. Et contrairement à ce que l’on pourrait penser, ils ont parfois autant de choses à révéler sur nous que sur la technologie qui les compose. Récemment Meta, anciennement Facebook, en a fait les frais en rendant publique la nouvelle version de son chatbot BlenderBot.
BlenderBot 3 est capable de tenir des discussions et même d'aller chercher des informations sur Internet pour alimenter le dialogue avec son interlocuteur humain. Lors de sa mise en ligne l'entreprise a exhorté les utilisateurs américains de plus de 18 ans à interagir naturellement avec lui et à leur remonter tout propos suspicieux ou phrase dénuée de sens. En effet, en l'espace de deux jours seulement après son lancement, les utilisateurs remontaient déjà à Meta des extraits de conversation préoccupants, et les captures d'écran fleurissaient sur les réseaux sociauxréseaux sociaux, des plus amusantes aux plus alarmantes. En Allemagne, une IA va contrôler les feux de circulation pour gérer le trafic routier. À quoi ressembleraient les Simpson dans la vraie vie ? IA et santé : comment l'intelligence artificielle aide à lutter contre l'arthrose du genou. Le célèbre hélicoptère Black Hawk a réussi sa première opération de sauvetage sans pilote.