background preloader

Intelligence artificielle : les risques d'une utilisation malveillante

Intelligence artificielle : les risques d'une utilisation malveillante
Des experts internationaux sonnent l'alarme sur les risques d'une utilisation malveillante de l'intelligence artificielle (IA) par « des États voyous, des criminels, des terroristes », dans un rapport publié mercredi. Selon eux, dans les dix prochaines années, l'efficacité croissante de l'IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Celle-ci est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociauxréseaux sociaux grâce à des comptes automatisés (bots). Ce rapport de 100 pages intitulé The Malicious Use of Artificial Intelligence a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ceux-ci travaillent pour des universités (Cambridge, Oxford, Yale, Stanford) et des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation). La cybercriminalité à grande échelle Appel à l'action Related:  Intelligence artificielle

Un rapport européen épingle les risques de l’intelligence artificielle L'intelligence artificielle va être un bouleversement important pour les travailleurs explique le Comité économique et social européen. Dans un rapport, il dévoile ses recommandations sur le sujet, avec un accent mis sur le côté social évidemment. Emplois, éthique, influence sur nos décisions et éducation sont autant de points abordés. Depuis plusieurs années, l'intelligence artificielle – au sens large du terme – connait des progressions fulgurantes dans de nombreux domaines. Dernier exemple en date, la victoire sans appel 3 à 0 d'Alpha Go (créé par DeepMind, une filiale de Google) sur Ke Jie, qui est considéré comme le numéro un mondial au jeu de Go. En 2017, les institutions françaises découvrent-elles l'Intelligence artificielle ? L'année 2017 semble être synonyme de réveil pour la France sur ces sujets, enfin diront certains. Lire l'avis du CESE sur l'intelligence artificielle Le Comité économique et social européen fait le point sur ses avantages et... ses risques

Cadre juridique appliqué à l’IA – blogintelligenceartificielle Comme évoqué dans la page précédente, l’intelligence artificielle va probablement égaler et même dépasser l’intelligence humaine, d’ici une trentaine d’années. Cette forme d’intelligence, qui serra présente sous forme de robots humanoïdes, entre autres, sera certaines autonome dans toutes ses activités comme un humain. Ces robots pourront donc se déplacer, agir et s’alimenter tout seul, et c’est là qu’intervient le droit. Surviennent alors de multiples questions: un robots peut-il être responsables de ses actes? De plus, le transhumanisme se joindra aussi surement à ce nouvel ensemble. L’intelligence artificielle contrôlé par quelque grande société, prend actuellement de plus en plus d’ampleur et c’est pourquoi, les Etats-Unis et l’Asie réfléchissent sérieusement aux dispositions à prendre. Le droit relatif à l’intelligence artificielle est pour l’instant assez restreint. Isaac Asimov, écrivain de science fiction, à quant à lui définie 3 lois de la robotique qui sont les suivantes:

Intelligence artificielle : la complexe question de l'éthique Avec le développement des intelligences artificielles se posent de nombreuses questions sociétales. En particulier, comment définir une éthique de ce domaine ? Armen Khatchatourov, philosophe à Télécom École de Management et membre de la Chaire « Valeurs et politiques des informations personnelles » de l’IMT, observe et analyse avec attention les réponses proposées à cette question. L’une de ses principales préoccupations est de voir comment l’éthique tente d’être normée par un cadre législatif. Dans la course effrénée de l’intelligence artificielle menée par les GAFA, aux algorithmes toujours plus performants ou aux décisions automatisées toujours plus rapides, l’ingénierie est reine, car porteuse de la très convoitée innovation. En particulier, il étudie les aspects problématiques de l’encadrement législatif des IA. « Le risque c’est de perdre tout esprit critique » Armen Khatchatourov Éthique by design : les mêmes limites que la privacy by design ? L’éthique n’est pas un produit

Intelligence artificielle : de l'importance des principes de vigilance et de loyauté des algorithmes pour "garder la main" La CNIL publie la synthèse du débat public organisé sur « les enjeux éthiques des algorithmes et de l’intelligence artificielle » . 3 000 personnes ont participé à 45 manifestations, avec pour objectif de donner des éléments de réponses à la question suivante : « comment permettre à l’Homme de garder la main ? ». La Présidente de la CNIL, Isabelle Falque-Pierrotin, a présenté ce rapport en présence du Secrétaire d’État chargé du Numérique, Mounir Mahjoubi, et du député chargé par le gouvernement d’une mission sur l’intelligence artificielle, Cédric Villani. Pourquoi ce rapport sur les enjeux éthiques des algorithmes Selon la Loi pour une République Numérique, la CNIL a pour mission de « mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies ». Les problématiques soulevées par l’intelligence artificielle 2 principes fondateurs pour réguler l’intelligence artificielle Un principe de loyauté des algorithmes Un principe de vigilance/réflexivité

Le deep learning Vous entendez parler du deep learning, mais vous n’en avez pas encore compris la profondeur ? Cette vidéo est faite pour vous ! Fidèle à mon habitude, voici la liste des choses essentielles, mais pourtant éliminées par manque de place et pour rester accessible au plus grand nombre. L’apprentissage non-supervisé Ma vidéo laisse penser que l’apprentissage automatique se limite aux cas où l’on cherche à prédire une sortie (Y) en fonction d’une ou plusieurs entrées (X). Il existe en réalité un autre grand domaine, l’apprentissage « non-supervisé », où d’une certaine manière toutes les variables sont mises sur un pied d’égalité au départ, et où la question n’est pas « peut-on prédire Y à partir de X ? Prenons un exemple simple, imaginons que je vous représente le diamètre et la hauteur d’une série d’arbres, et que j’observe la chose suivante. Réseaux de neurones vs SVM Autre grosse injustice de ma vidéo : je fais comme si l’apprentissage supervisé se limitait aux réseaux de neurones. Références

Intelligence artificielle Intelligence artificielle L'intelligence artificielle (IA) est l'ensemble des systèmes informatiques capables d'effectuer des tâches typiquement associées à l'intelligence, telles que l'apprentissage, le raisonnement, la résolution de problèmes, la perception ou la prise de décision. L'intelligence artificielle est également le champ de recherche visant à développer de tels systèmes. Les applications de l'IA couvrent de nombreux domaines, notamment les moteurs de recherche, les systèmes de recommandation, l'aide au diagnostic médical, la compréhension du langage naturel, les voitures autonomes, les chatbots, les outils de génération d'images, les outils de prise de décision automatisée, les programmes compétitifs dans des jeux de stratégie et certains personnages non-joueurs de jeu vidéo[2]. Le champ de recherche, établi en 1956[3], a connu des périodes d'optimisme et de déception au cours du XXe siècle[4]. Les définitions font souvent intervenir[18],[19] : Apprentissage supervisé Roman V.

Renouveau de l'intelligence artificielle et de l'apprentissage automatique - Académie des technologies Dans un rapport voté en assemblée plénière le 14 mars, l’Académie des technologies estime nécessaire de construire un « plan IA » à l’échelle européenne et nationale qui permette de renforcer les investissements dans les moyens de calcul et la recherche technologique. L’Académie recommande de soutenir et encourager une approche responsable de l’IA qui vise à développer simultanément les performances et l’acceptabilité éthique des algorithmes intelligents. Destiné à pénétrer la majorité des pratiques et des environnements, dans l’entreprise comme dans la société civile, l’IA représente un double enjeu — de compétitivité pour nos entreprises et de souveraineté nationale. L’IA et l’apprentissage automatique utilisent un large ensemble de méthodes et le premier mérite de ce rapport, qui s’adresse particulièrement aux entreprises, est d’expliquer comment celles-ci se complètent et peuvent s'enrichir mutuellement : quel est l’éventail des solutions possibles ?

Intelligence artificielle et bots : les dircoms sont-ils voué à bientôt disparaître Robots conversationnels, service client virtuel, assistants personnels vocaux, moteurs de recherche sont désormais tous dopés à l’intelligence artificielle (IA). Ils s’immiscent dans la conversation des marques et des entreprises avec leurs différents publics et remplacent même dans certains cas la classique communication générée par un humain. L’an passé, l’institut Forrester prédisait 300% d’augmentation des investissements mondiaux dans l’IA en 2017. Certes, le célèbre mathématicien et cryptologue britannique Alan Turing déclarait dans les années 50 que d’ici les cinq prochaines décennies, un humain serait incapable de discerner si son interlocuteur est une machine ou un homme et ceci sur n’importe quel sujet du fait des progrès de l’intelligence artificielle (IA). Il y a IA et IA En soi, le rêve d’automatiser les flux communicationnels d’une marque ou d’une entité est aussi vieux que les premiers pas de l’informatique et des ordinateurs. Et la communication dans tout ça ? Sources

L'intelligence artificielle dans le futur L'intelligence artificielle est une discipline encore jeune, elle a été inventée dans les années 50. Elle tend donc à évoluer dans les années à venir pour devenir encore plus perfectionnée au fur et à mesure que la technologie progresse. Il est donc fort probable qu'un jour l'ordinateur aura des capacités d'intelligence qui pourront même être supérieures à l'homme. En effet le but des scientifiques dans le domaine de l'IA forte est de pouvoir simuler l'intelligence humaine et le comportement d'un être humain doté de conscience et de sentiments. Et si ces machines pouvaient nous dominer... Elles deviendraient supérieures à l'homme. Les intelligences artificielles possèdent de plus la capacité de se développer, elles peuvent donc évoluer dans un environnement qui leur est propre (un ordinateur). Ceci étant dit il ne faudrait pas que des organismes digitaux intelligents se reproduisent et se propagent dans tous les ordinateurs via Internet. Un futur proche Un futur lointain

L'IA et l'armée Dans le domaine militaire, c’est pour des attaques et des défenses autonomes que les différentes armées du monde utilisent l’intelligence artificielle. En effet, toutes s’équipent aujourd’hui de matériels capables de défendre automatiquement les soldats et de détruire une cible ennemie. Premièrement, il y a les équipements de repérages automatiques, tous dotés d’un système d’intelligence artificielle, ayant des capacités que l’homme ne possède pas : - les drones : comme les radars, ils sont capables d’identifier une cible. Mais contrairement à ces derniers, les drones sont mobiles, et observent du ciel ce qui se passe sur terre. Les drones se développent de plus en plus : nous pouvons les trouver sous forme d’avion ou d’hélicoptère sans équipe de pilotage, ou même, plus récemment, sous forme d’insecte minuscule. Deuxièmement, il existe plusieurs systèmes de défense automatique, toujours plus performant : - véhicules sans pilote : ils sont adaptés à faire face à toute type de situation.

IA dans le militaire: la France reste dans la course aux armements L'intelligence artificielle est déjà très utilisée dans l'univers sensible de la défense. Pourquoi ? "l'IA n'est pas une technique à forte barrière d'entrée. L'IA va-t-elle changer l'art de la guerre? L'IA représente-t-elle une véritable rupture dans l'art de la guerre ? L'intelligence artificielle permettra entre autre de contrer les futurs missiles hypervéloces, capables d'atteindre des vitesses allant de cinq à dix fois la vitesse du son. Les SALA, une crainte? Les armées occidentales vont devoir anticiper toutes les éventualités lors d'un conflit armé, y compris l'éventualité que leurs ennemis potentiels ne s'embarrassent pas de questions éthiques, à l'image de l'utilisation de SALA (systèmes d'arme létaux autonomes), les fameux "robots tueurs". Selon Emmanuel Chiva, "les SALA ne sont pas une priorité. La France reste dans la course La France est-elle encore dans la course de l'IA ?

Ce rapport est disponible sur Calaméo mais en anglais, je me demande s'il existe une version rédigé en français?

Houria Meddas by meddas_groupec Mar 16

Perspective intéressante ! by sudre_groupe2_psy Mar 15

Related: