Vous n'avez peut-être jamais entendu le terme "média synthétique" - plus communément appelé "deepfakes" - mais nos agences militaires, d'application de la loi et de renseignement l'ont certainement entendu. Ce sont des enregistrements vidéo et audio hyperréalistes qui utilisent l'intelligence artificielle et l'apprentissage "profond" pour créer du "faux" contenu ou des "deepfakes". Le gouvernement américain est de plus en plus préoccupé par leur potentiel à être utilisé pour diffuser de la désinformation et commettre des crimes. C'est parce que les créateurs de deepfakes ont le pouvoir de faire dire ou faire n'importe quoi, du moins sur nos écrans. La plupart des Américains n'ont aucune idée du chemin parcouru par la technologie au cours des quatre dernières années ou du danger, des perturbations et des opportunités qui l'accompagnent.
Deepfake Tom Cruise : Vous savez que je fais toutes mes cascades, évidemment. Je fais aussi ma propre musique.
Ce n'est pas Tom Cruise. Il fait partie d'une série de deepfakes hyperréalistes de la star de cinéma qui ont commencé à apparaître sur l'application de partage de vidéos TikTok plus tôt cette année.
Deepfake Tom Cruise : Hé, quoi de neuf TikTok ?
Pendant des jours, les gens se sont demandé s'ils étaient réels, et sinon, qui les avait créés.
Deepfake Tom Cruise : C'est important.
Enfin, un modeste artiste d'effets visuels belge de 32 ans nommé Chris Umé, s'est avancé pour revendiquer le crédit.
Chris Umé : Nous pensions que tant que nous précisons qu'il s'agit d'une parodie, nous ne faisons rien pour nuire à son image. Mais après quelques vidéos, nous avons réalisé que ça explosait ; nous obtenons des millions et des millions et des millions de vues.
Umé dit que son travail est facilité parce qu'il s'est associé à un imitateur de Tom Cruise dont la voix, les gestes et les cheveux sont presque identiques au vrai McCoy. Umé ne fait que deepfake le visage de Cruise et le coud sur la vraie vidéo et le son de l'imitateur.
Deepfake Tom Cruise : C'est là que la magie opère.
Pour les technophiles, DeepTomCruise a été un point de basculement pour les deepfakes.
Deepfake Tom Cruise : J'ai toujours compris.
Bill Whitaker : Comment faites-vous pour que cela soit si transparent ?
Chris Umé : Cela commence par la formation d'un modèle deepfake, bien sûr. J'ai tous les angles du visage de Tom Cruise, toutes les expressions, toutes les émotions. Il faut du temps pour créer un très bon modèle deepfake.
Bill Whitaker : Qu'entendez-vous par "former le modèle ?" Comment entraînez-vous votre ordinateur ?
Chris Umé : « Training » veut dire qu'il va analyser toutes les images de Tom Cruise, toutes ses expressions, par rapport à mon imitateur. Donc l'ordinateur va apprendre tout seul : quand mon imitateur sourit, je vais recréer Tom Cruise souriant, et c'est comme ça que vous le " formez ".
En utilisant la vidéo des archives de CBS News, Chris Umé a pu former son ordinateur pour apprendre chaque aspect de mon visage et effacer les décennies. Voilà à quoi je ressemblais il y a 30 ans. Il peut même enlever ma moustache. Les possibilités sont infinies et un peu effrayantes.
Chris Umé : Je vois beaucoup d'erreurs dans mon travail. Mais ça ne me dérange pas, en fait, parce que je ne veux pas tromper les gens. Je veux juste leur montrer ce qui est possible.
Bill Whitaker : Vous ne voulez pas tromper les gens.
Chris Umé : Non. Je veux divertir les gens, je veux sensibiliser et je veux
et je veux montrer où tout cela va.
Nina Schick : C'est sans aucun doute l'une des révolutions les plus importantes dans l'avenir de la communication et de la perception humaines. Je dirais que c'est analogue à la naissance d'Internet.
La politologue et consultante en technologie Nina Schick a écrit l'un des premiers livres sur les deepfakes. Elle les a rencontrés pour la première fois il y a quatre ans alors qu'elle conseillait des politiciens européens sur l'utilisation par la Russie de la désinformation et des médias sociaux pour s'immiscer dans les élections démocratiques.
Bill Whitaker : Quelle a été votre réaction lorsque vous avez réalisé que c'était possible et que cela se poursuivait ?
Nina Schick : Eh bien, étant donné que j'abordais la question du point de vue de la désinformation et de la manipulation dans le contexte des élections, le fait que l'IA peut désormais être utilisée pour créer des images et des vidéos qui sont fausses, qui ont l'air hyper réalistes. J'ai pensé, eh bien, du point de vue de la désinformation, cela change la donne.
Jusqu'à présent, rien ne prouve que les deepfakes aient "changé la donne" lors d'une élection américaine, mais plus tôt cette année, le FBI a publié une notification avertissant que "des acteurs russes [et] chinois… utilisent des images de profil synthétiques" - créant des journalistes et des médias deepfakes personnalités pour diffuser de la propagande anti-américaine sur les réseaux sociaux.
L'armée américaine, les forces de l'ordre et les agences de renseignement surveillent de près les deepfakes depuis des années. Lors d'une audience en 2019, le sénateur Ben Sasse du Nebraska a demandé si les États-Unis étaient préparés à l'assaut de la désinformation, de la contrefaçon et de la fraude.
Ben Sasse : Lorsque vous pensez au potentiel catastrophique pour la confiance du public et pour les marchés qui pourrait provenir d'attaques contrefaites, sommes-nous organisés de manière à pouvoir réagir assez rapidement ?
Dan Coats : Nous devons clairement être plus agiles. Il représente une menace majeure pour les États-Unis et quelque chose que la communauté du renseignement doit être restructurée pour y faire face.
Depuis lors, la technologie a continué d'évoluer à un rythme exponentiel, contrairement à la politique américaine. Les efforts du gouvernement et des grandes technologies pour détecter les médias synthétiques sont en concurrence avec une communauté d'"artistes deepfake" qui partagent leurs dernières créations et techniques en ligne.
Comme Internet, le premier endroit où la technologie deepfake a décollé était dans la pornographie. La triste réalité est que la majorité des deepfakes consistent aujourd'hui en des visages de femmes, pour la plupart des célébrités, superposés à des vidéos pornographiques.
Nina Schick : Le premier cas d'utilisation dans la pornographie n'est qu'un signe avant-coureur de la façon dont les deepfakes peuvent être utilisés de manière malveillante dans de nombreux contextes différents, qui commencent maintenant à apparaître.
Bill Whitaker : Et ils s'améliorent tout le temps ?
Nina Schick : Oui. Ce qui est incroyable avec les deepfakes et les médias synthétiques, c'est le rythme d'accélération de la technologie. Et d'ici cinq à sept ans, nous envisageons essentiellement une trajectoire où n'importe quel créateur, donc un YouTuber, un TikToker, pourra créer le même niveau d'effets visuels qui n'est accessible qu'au studio hollywoodien le mieux doté aujourd'hui. .
La technologie derrière les deepfakes est l'intelligence artificielle, qui imite la façon dont les humains apprennent. En 2014, les chercheurs ont utilisé pour la première fois des ordinateurs pour créer des visages réalistes à l'aide de ce qu'on appelle des « réseaux antagonistes génératifs » ou GAN.
Nina Schick : Donc, vous mettez en place un jeu contradictoire où vous avez deux IA qui se combattent pour essayer de créer le meilleur faux contenu synthétique. Et comme ces deux réseaux se combattent, l'un essayant de générer la meilleure image, l'autre essayant de détecter où elle pourrait être meilleure, vous vous retrouvez essentiellement avec une sortie qui s'améliore de plus en plus tout le temps.
Schick dit que la puissance des réseaux antagonistes génératifs est pleinement exposée sur un site Web appelé "ThisPersonDoesNotExist.com"
Nina Schick : Chaque fois que vous actualisez la page, il y a une nouvelle image d'une personne qui n'existe pas.
Chacune est une image unique en son genre, entièrement générée par l'IA, d'un être humain qui n'a jamais marché et ne marchera jamais sur cette Terre.
Nina Schick : Vous pouvez voir tous les pores de leur visage. Vous pouvez voir tous les cheveux sur leur tête. Mais imaginez maintenant que la technologie soit étendue non seulement aux visages humains, aux images fixes, mais aussi à la vidéo, à la synthèse audio des voix des gens et c'est vraiment là que nous nous dirigeons en ce moment.
Bill Whitaker : C'est époustouflant.
Nina Schick : Oui. [Des rires]
Bill Whitaker : Quel est le côté positif de tout cela ?
Nina Schick : La technologie elle-même est neutre. Donc, tout comme les mauvais acteurs vont sans aucun doute utiliser des deepfakes, il va également être utilisé par de bons acteurs. Donc, tout d'abord, je dirais qu'il y a un argument très convaincant à faire valoir pour l'utilisation commerciale des deepfakes.
Victor Riparbelli est PDG et co-fondateur de Synthesia, basée à Londres, l'une des dizaines d'entreprises utilisant la technologie deepfake pour transformer les productions vidéo et audio.
Victor Riparbelli : La façon dont Synthesia fonctionne est que nous avons essentiellement remplacé les caméras par du code, et une fois que vous travaillez avec un logiciel, nous faisons beaucoup de choses que vous ne pourriez pas faire avec une caméra normale. Nous sommes encore très tôt. Mais cela va être un changement fondamental dans la façon dont nous créons les médias.
Synthesia fabrique et vend des "avatars numériques", utilisant les visages d'acteurs rémunérés pour délivrer des messages personnalisés dans 64 langues... et permet aux PDG d'entreprises de s'adresser aux employés à l'étranger.
Snoop Dogg : Est-ce que quelqu'un a dit, Just Eat ?
Synthesia a également aidé des artistes comme Snoop Dogg à se multiplier. Cette publicité télévisée élaborée pour le service de livraison de nourriture européen Just Eat a coûté une fortune.
Snoop Dogg: JUSTEAT-...
Victor Riparbelli : Just Eat a une filiale en Australie qui s'appelle Menulog. Donc, ce que nous avons fait avec notre technologie, c'est que nous avons remplacé le mot Just Eat par Menulog.
Snoop Dogg : MENULOG… Quelqu'un a-t-il dit "MenuLog ?"
Victor Riparbelli : Et tout d'un coup, ils ont eu une version localisée pour le marché australien sans que Snoop Dogg n'ait rien à faire.
Bill Whitaker : Alors il gagne deux fois plus d'argent, hein ?
Victor Riparbelli : Oui.
Il ne m'a fallu que huit minutes pour lire un script à la caméra pour que Synthesia crée ma tête parlante synthétique, avec mes gestes, les mouvements de la tête et de la bouche. Une autre entreprise, Descript, a utilisé l'IA pour créer une version synthétique de ma voix, avec ma cadence, ma teneur et ma syncope.
Deepfake Bill Whitaker : Voici le résultat. Les mots que vous entendez n'ont jamais été prononcés par le vrai Bill dans un microphone ou devant une caméra. Il a simplement tapé les mots dans un ordinateur et ils sortent de ma bouche.
Cela peut sembler et sembler un peu rugueux sur les bords en ce moment, mais à mesure que la technologie s'améliore, les possibilités de faire tourner des mots et des images à partir de rien sont infinies.
Deepfake Bill Whitaker : Je suis Bill Whitaker. Je suis Bill Whitaker. Je suis Bill Whitaker.
Bill Whitaker : Waouh. Et la tête, les sourcils, la bouche, la façon dont ça bouge.
Victor Riparbelli : Tout est synthétique.
Bill Whitaker : Je pourrais me prélasser à la plage. Et dire, "Les gens-- vous savez, je ne vais pas venir aujourd'hui. Mais vous pouvez utiliser mon avatar pour faire le travail."
Victor Riparbelli : Peut-être dans quelques années.
Bill Whitaker : Ne me dites pas ça. Je serais tenté.
Tom Graham : Je pense que cela aura un grand impact.
Les progrès rapides des médias synthétiques ont provoqué une ruée vers l'or virtuelle. Tom Graham, un avocat basé à Londres qui a fait fortune dans la crypto-monnaie, a récemment lancé une société appelée Metaphysic avec nul autre que Chris Umé, créateur de DeepTomCruise. Leur objectif : développer un logiciel permettant à quiconque de créer des films de calibre hollywoodien sans lumières, caméras ou même acteurs.
Tom Graham : Au fur et à mesure que le matériel évolue et que les modèles deviennent plus efficaces, nous pouvons augmenter la taille de ce modèle pour qu'il devienne un Tom Cruise entier ; corps, mouvement et tout.
Bill Whitaker: Eh bien, parlez de perturbateur. Je veux dire, tu vas mettre les acteurs au chômage ?
Tom Graham : Je pense que c'est une bonne chose si vous êtes un acteur bien connu aujourd'hui parce que vous pourrez peut-être laisser quelqu'un collecter des données pour vous afin de créer une version de vous-même dans le futur où vous pourriez jouer dans des films après vous sont décédés. Ou vous pourriez être le réalisateur, diriger votre jeune moi dans un film ou quelque chose comme ça.
Si vous vous demandez comment tout cela est légal, la plupart des deepfakes sont considérés comme une liberté d'expression protégée. Les tentatives de législation sont partout sur la carte. À New York, l'utilisation commerciale de la ressemblance synthétique d'un artiste sans consentement est interdite pendant 40 ans après sa mort. La Californie et le Texas interdisent les deepfakes politiques trompeurs à l'approche d'une élection.
Nina Schick : Il y a tellement de zones grises éthiques et philosophiques auxquelles nous devons vraiment réfléchir.
Bill Whitaker : Alors, comment pouvons-nous, en tant que société, faire face à cela ?
Nina Schick : Juste comprendre ce qui se passe. Parce que beaucoup de gens ne savent toujours pas ce qu'est un deepfake, ce qu'est un média synthétique, que c'est désormais possible. Le contraire est de savoir comment nous inoculer et comprendre que ce type de contenu arrive et existe sans être complètement cynique ? Droit? Comment le faire sans perdre confiance dans tous les médias authentiques ?
Cela va nous obliger tous à comprendre comment manœuvrer dans un monde où voir n'est pas toujours croire.
Produit par Graham Messick et Jack Weingart. Associé de diffusion, Emilio Almonte. Edité par Richard Buddenhagen.
Téléchargez notre application gratuite
Pour les dernières nouvelles et analyses Téléchargez l'application gratuite CBS News