background preloader

Deepfake

Facebook Twitter

Flippant : cet algorithme recrée la voix de quelqu'un à partir d'une minute d'enregistrement. La startup québécoise Lyrebird développe une technologie qui n'est pas sans poser quelques questions éthiques.

Flippant : cet algorithme recrée la voix de quelqu'un à partir d'une minute d'enregistrement

Son algorithme d'imitation de voix est en effet capable d'imiter la voix d'une personne, sur la base d'un enregistrement audio d'une minute. Si certaines technologies sont capables de distinguer les voix de différents utilisateurs, peut-on imaginer un outil capable d’analyser, pour l’imiter, la voix d’une personne ? En fait, nul besoin de l’imaginer : une telle invention est déjà en préparation, et elle a été imaginée par la startup québécoise Lyrebird. Son algorithme d’imitation de voix, une interface de programmation applicative (ou API), est capable de synthétiser la voix d’une personne à l’aide d’un enregistrement court. Pour ce faire, l’API n’a besoin que d’une seule minute d’un enregistrement de la voix originale à copier. Intonations et émotions Enjeux éthiques évidents « Les enregistrements audio sont souvent utilisés comme pièce à conviction dans de nombreux pays. Exercice. Le Deepfake.

Ce module n'est plus proposé dans la page d'accueil mais reste en ligne pour ceux qui souhaitent l'utiliser.

Exercice. Le Deepfake

En effet, CloneZone n'est plus actualisé depuis de nombreuses années et seules les adresses non sécurisées (en http), désormais très rares, fonctionnent encore, quelquefois. Son intérêt est donc désormais très limité et c'est bien dommage. Exercice Consignes Mettez-vous par groupe de deux ou trois Visionnez le tutoriel ci-dessous sur CloneZone Choisissez la UNE que vous souhaitez reproduire, l'une de celles ci-dessous ou une autre de votre choix ( !

Vous pouvez également consulter le site www.revue2presse.fr Enregistrez votre production. Des chasseurs mis en fuite par un lion? Retour sur une fausse vidéo virale. Sur Twitter, une vidéo virale montre deux chasseurs poser devant la dépouille d’un lion avant d’être eux-mêmes attaqués par un lion bien vivant.

Des chasseurs mis en fuite par un lion? Retour sur une fausse vidéo virale

La séquence originale date de 2016 et visait à lutter contre la pratique du « trophy hunting », qui consiste à s’immortaliser devant ce type de proie. Il s’agit en réalité d’une séquence mise en scène par un studio australien spécialisé dans ce type de montage à grand succès. La séquence dure un peu moins de 20 secondes mais elle a tout pour ravir les opposants au « trophy hunt », cette « chasse aux trophées » qui permet aux braconniers, moyennant une certaine somme, d’abattre du gros gibier – comme des lions ou des éléphants. Sur cette vidéo déjà visionnée plus de 8 millions de fois sur Twitter depuis fin décembre, un homme et une femme posent fièrement devant la dépouille d’un lion tout juste abattu. Mais leur triomphe cède la place à la panique lorsqu’un congénère bien vivant de leur victime surgit devant la caméra, provoquant leur fuite. Deepfake : danser comme un pro grâce à l’IA. L'ivresse de la deepfake - 28 Minutes.

Les deepfakes, nouvelle arme dans l'arsenal de désinformation en ligne. On te fake bien profond : le boom du deepfake - Technikart. Marion Maréchal Le Pen qui fume un joint de weed devant la station Barbès, Benoit Hamon déclarant la guerre aux salauds de gauchistes, ou Emmanuel Macron habillé en black block sur les Champs Elysées, les prochaines échéances électorales devraient livrer leur lot de surprises vidéo-ludiques.

On te fake bien profond : le boom du deepfake - Technikart

Fin janvier, l’expert au Centre pour une nouvelle sécurité américaine, Paul Scharre, spéculait : « Au cours des deux prochaines années, nous verrons des vidéos truquées jouer un rôle dans les campagnes politiques aux États-Unis ou en Europe (…) pour essayer d’influencer ou de salir les candidats, et ce sera un défi pour les démocraties. » Car les récents progrès en matière d’intelligence artificielle devraient ravir militants et complotistes acharnés du tweet impulsif, et compromettre au passage nos idéaux démocratiques.

Lire aussi : Y a-t-il un robot pour sauver la presse ? Sa clientèle : des personnalités publiques, acteurs, politiciens, industriels. « Il n’y a pas d’activité humaine sans risque. Jordan Peele uses AI, President Obama in fake news PSA. Spot on impressions of Al Pacino and Arnold Schwarzenegger by Bill Hader [DeepFake] Ctrl Shift Face.