Crédit : Marcus Winkler de Pexels
Le soir du 18 février 2022, les visiteurs d’un website online d’knowledge ukrainien ont été accueillis par un spectacle familier : une vidéo de leur président prononçant un discours. Même si l. a. ressemblance était là, le visage semblait légèrement décalé avec l. a. tête du président ukrainien.
Dans l. a. vidéo, Volodymyr Zelensky déclare que l. a. guerre est terminée, un fait que l. a. majorité des Ukrainiens savent être fake. C’était une vidéo deepfake. Pendant que cela se passait en ligne, le curseur en bas de l’écran de l. a. diffusion télévisée en direct de l. a. chaîne lisait le même message. Elle prétendait – encore une fois à tort – que l’Ukraine était en educate de se rendre.
Notre équipe du Lero Analysis Middle de l’College School Cork vient de publier une étude inédite examinant l. a. manière dont de fausses vidéos ont été visionnées et discutées sur Twitter au cours des premiers mois de l’invasion russe de l’Ukraine.
Los angeles technologie Deepfake est un développement technologique récent qui permet essentiellement aux gens de créer des vidéos d’événements qui ne se sont jamais produits. Il semble particulièrement adapté à l. a. diffusion de désinformations, de fausses informations et de « fausses nouvelles » sur les plateformes de médias sociaux et ailleurs en ligne. Les deepfakes sont également très adaptés à l. a. cyberguerre.
Les vidéos sont manipulées à l’aide de l. a. technologie de l’IA et impliquent généralement un mélange de contenu réel et fake. Cela les rend plus réalistes et convaincantes que les vidéos créées entièrement à l’aide de l’IA. Par exemple, l. a. technologie deepfake pourrait prendre une vraie vidéo et échanger les visages de deux personnes dans cette vidéo ou modifier les mouvements de leurs lèvres afin que l. a. personne semble dire quelque selected de différent de ce qu’elle a dit à l’origine.
Les commentateurs et les universitaires ont souligné que les vidéos deepfake peuvent être créées plus facilement et plus rapidement en utilisant l. a. technologie deepfake qu’avec les méthodes précédentes.
Perte de confiance
Notre étude a découvert de nombreux cas dans lesquels l. a. présence de deepfakes a suscité des doutes ou de l. a. confusion. Étonnamment, nos données ont montré des cas où des personnes accusaient de vraies vidéos d’être fausses. Nous avons également constaté que les gens perdent confiance dans toutes les vidéos sur les conflits, certaines personnes approuvant les théories selon lesquelles les dirigeants mondiaux sont morts et ont été remplacés par de fausses vidéos.
Parmi les nombreux exemples de deepfakes utilisés en ligne pendant l. a. guerre entre l. a. Russie et l’Ukraine, celui de Zelensky affirmant que l. a. guerre était finie était peut-être le plus effrayant. En effet, il a mis en évidence remark les deepfakes, ainsi que les products and services médiatiques piratés, peuvent être utilisés pour diffuser des messages contraires à l. a. réalité. Le résultat ultimate de cet incident a été l. a. diffusion de fausses informations provenant d’une supply fiable. De fausses vidéos similaires ont également été publiées montrant l. a. capitulation du président russe Vladimir Poutine pendant l. a. guerre.
Notre recherche est l. a. première étude universitaire sur l’affect des deepfakes en temps de guerre. Afin de découvrir remark les deepfakes ont été utilisés au début de l’invasion russe de l’Ukraine, nous avons d’abord créé une chronologie de divers deepfakes déployés au début de l’invasion. Même si nous n’avons pas pu capturer tous les deepfakes apparus, nous avons essayé de trouver les exemples les plus marquants et ceux qui ont le plus grand affect. Nous avons ensuite analysé l. a. façon dont ces vidéos étaient discutées sur Twitter (maintenant connu sous le nom de X).
Humour, confusion et scepticisme
Los angeles plupart des deepfakes réalisés pendant le conflit étaient de nature humoristique, et certains impliquaient l’insertion de Poutine dans des motion pictures tels que Los angeles Chute (Der Untergang) ou le movie de Charlie Chaplin de 1940, Le Dictateur. De fausses vidéos (et CGI) ont également été produites par le gouvernement ukrainien pour sensibiliser l. a. inhabitants au conflit.
Il est intéressant de noter que démontrer l. a. capacité de l’Ukraine à créer de fausses vidéos, bien qu’instructives, pourrait avoir l’effet inverse. Ils ont suscité l. a. méfiance et l. a. suspicion des téléspectateurs à l’égard des véritables médias.
Une grande partie des discussions sur les deepfakes en ligne ont fait preuve d’un scepticisme sain, comme des conseils sur l. a. vérification des faits et l. a. détection des deepfakes. Cependant, nous avons également trouvé de nombreux exemples de vidéos que les gens prétendaient à tort être des deepfakes. Il y avait deux catégories de ces vidéos. Premièrement, de nombreuses vidéos se sont révélées être des contrefaçons de faible technologie, comme celles avec de fake sous-titres ou des vidéos d’événements survenus dans d’autres guerres présentées comme preuve des événements en Ukraine.
Deuxièmement, nous avons trouvé de nombreux exemples de vidéos réelles d’événements en Ukraine, que les commentateurs ont faussement accusées d’être des deepfakes. Los angeles perte de confiance dans les médias réels est une conséquence grave des deepfakes et ne fait que créer des théories du complot centrées sur les deepfakes.
Apprendre des leçons
Quelles leçons l’utilisateur moyen des médias sociaux peut-il tirer de cette recherche ? Los angeles propagation des vidéos deepfake en ligne a augmenté au cours des cinq dernières années, et l. a. détection technologique des vidéos deepfake n’est actuellement pas suffisamment précise pour constituer une resolution en soi. L’necessary est d’encourager une bonne éducation aux médias chez les individus afin de trouver un équilibre entre un scepticisme sain et malsain.
Il est nécessaire de considérer avec méfiance les médias hautement incendiaires et d’attendre que ces informations soient vérifiées par de multiples assets fiables. De l’autre côté de l. a. médaille, les gens doivent faire consideration à ne pas accuser faussement les vidéos d’être profondément fausses.
Il est necessary que nous ne perdions pas confiance dans tous les médias que nous rencontrons, d’autant plus que les deepfakes ne sont pas particulièrement répandus en ligne. Une selected est sûre, l. a. query de l. a. désinformation profonde sera présente dans tous les esprits à mesure que les conflits mondiaux se développeront tout au lengthy de cette décennie et au-delà.
Advent à l. a. dialog
Cet article est republié à partir de The Dialog sous une licence Inventive Commons. Lisez l’article unique.
l. a. quotation: Deepfakes in battle : De nouvelles inquiétudes émergent de leur utilisation autour de l’invasion russe de l’Ukraine (29 octobre 2023) Récupéré le 29 octobre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.