FakeForward wall squat (le player à l’étude fait des wall squats. De gauche à droite : utilisateur ; quelqu’un avec de meilleures compétences, FakeForward). crédit: Actes de l. a. conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques (2023). est ce que je: 10.1145/3544548.3581100
Regarder une vidéo de formation montrant une fausse model de vous-même, plutôt que celle montrant quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant, selon une nouvelle étude du centre de recherche REVEAL de l’Université de Tub.
Ce résultat a été observé dans deux expériences distinctes, l’une explorant l’entraînement body et l’autre impliquant l. a. prise de parole en public. L’ouvrage est publié dans l. a. revue Actes de l. a. conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques.
Un deepfake est une vidéo dans laquelle le visage ou le corps d’une personne est modifié numériquement afin qu’elle ressemble à quelqu’un d’autre. Cette technologie fait l’objet d’une presse extrêmement négative en raison de sa capacité à diffuser des informations politiques erronées et à développer de manière malveillante du contenu pornographique superposant le visage d’une personne sur le corps d’une autre personne. Cela constitue également une risk existentielle pour les professionnels des industries créatives.
Le Dr Christoph Lutteroth et le Dr Christopher Clarke, tous deux du Département d’informatique de l’Université de Tub et co-auteurs de l. a. nouvelle étude, affirment que leurs résultats fournissent deux cas positifs pour l’utilisation de deepfakes, et ils espèrent que leurs résultats stimuleront davantage. des recherches sur l. a. manière dont les Deepfakes peuvent être utilisés pour faire le bien dans le monde.
“Les deepfakes sont fréquemment utilisés à des fins néfastes, mais nos recherches suggèrent que FakeForward (le nom que les chercheurs ont utilisé pour décrire l’utilisation des deepfakes pour enseigner une nouvelle compétence) est une manière inexplorée d’appliquer l. a. technologie afin qu’elle ajoute de l. a. valeur à l. a. vie des gens”, a déclaré le Dr Clark. . ” .
Le Dr Lutteroth a ajouté : « D’après cette étude, il est clair que les deepfakes ont le potentiel d’être vraiment passionnants pour les gens. En suivant un programme éducatif dans lequel ils agissent comme leur propre tuteur, les gens peuvent instantanément s’améliorer dans une tâche – c’est comme par magie.
Plus de répétitions, plus de plaisir
Pour l’expérience de health, les individuals à l’étude ont été invités à regarder une vidéo d’entraînement montrant une fausse symbol de leur visage collée sur le corps d’un utilisateur plus avancé.
Les chercheurs ont choisi six exercices (planches, squats, squats muraux, redressements assis, sauts de squat et pompes), chacun ciblant un groupe musculaire différent et nécessitant différents sorts de mouvements.
Pour chaque exercice, les individuals à l’étude ont d’abord regardé une vidéo pédagogique dans laquelle un modèle démontrait l’exercice, puis ont essayé de répéter l’exercice eux-mêmes. Le modèle a été choisi pour ressembler et surpasser les individuals, même si leur niveau de compétence était out there au sujet du take a look at.
Le processus de visionnage de l. a. vidéo et de simulation de l’exercice a également été réalisé à l’aide d’un entraîneur deepfake, où le visage du player était superposé au corps du model.
Dans les deux cas, les chercheurs ont mesuré le nombre de répétitions, soit le temps pendant lequel les individuals étaient capables d’effectuer l’exercice.
Pour tous les exercices, quel que soit l’ordre dans lequel les vidéos ont été visionnées, les individuals ont obtenu de meilleurs résultats après avoir regardé l. a. vidéo « d’eux-mêmes » qu’après avoir regardé une vidéo mettant en vedette quelqu’un d’autre.
« Deepfake était un outil vraiment puissant », a déclaré le Dr Lutteroth. “Les gens peuvent immédiatement faire plus de pompes ou tout ce qu’on leur demande de faire. L. a. plupart d’entre eux ont également indiqué qu’ils avaient mieux fait l’exercice que dans le didacticiel superficiel et qu’ils l’avaient davantage apprécié.”
Artwork oratoire
Une deuxième étude FakeForward menée par l. a. même équipe a révélé que les deepfakes peuvent améliorer considérablement les compétences d’une personne en tant qu’orateur public.
Lorsque le visage de l’orateur public expérimenté a été remplacé par celui de l’utilisateur, l’apprentissage a été considérablement amplifié, avec une confiance et une maîtrise considérablement accrues de l. a. prise de parole en public après avoir regardé l. a. vidéo FakeForward.
De nombreux individuals se sont sentis émus et inspirés par les vidéos FakeForward, disant des choses comme : « Cela me donne tellement de power », « L. a. vidéo deepfake me donne l’impact que parler n’est pas si effrayant », « Quand je me suis vu debout là, » et « Quand j’ai parlé, je me suis senti… fier de moi. »
Préoccupations éthiques
En principe, il est déjà conceivable pour des particuliers de créer des vidéos FakeForward by way of des packages open supply telles que Roop et Deep Face Lab, même si cela nécessite en pratique un positive degré d’experience method.
Pour se protéger contre d’éventuelles utilisations abusives, l’équipe de recherche FakeForward a développé un protocole éthique pour guider le développement de vidéos de selfie approfondies.
“Pour que cette technologie soit appliquée de manière éthique, les gens devraient uniquement créer des modèles personnels, automobile le thought de base est que ces modèles sont utiles à l. a. consommation privée”, a déclaré le Dr Clark.
Le Dr Lutteroth a ajouté : “Tout comme les deepfakes peuvent être utilisés pour renforcer les ‘bonnes’ activités, ils peuvent également être utilisés à mauvais escient pour amplifier les ‘mauvaises’ activités. Par exemple, ils peuvent apprendre aux gens à être plus racistes, plus sexistes et plus impolis. Par exemple , le fait de regarder une vidéo de vous-même disant apparemment des choses terribles peut vous affecter plus que de regarder quelqu’un d’autre dire ces choses.
Il a ajouté : « De toute évidence, nous devons garantir que les utilisateurs n’apprennent pas de comportements négatifs ou nuisibles grâce à FakeForward. Les stumbling blocks sont élevés mais pas insurmontables. »
Plus d’data:
Christopher Clark et al., FakeForward : Utiliser Deepfake pour apprendre avec Feedforward, Actes de l. a. conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques (2023). est ce que je: 10.1145/3544548.3581100
Fourni par l’Université de Tub
l. a. quotation: Deux expériences démontrent l’utilisation de deepfakes dans des vidéos de formation (6 octobre 2023) Récupéré le 1er novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.