Crédit : Pixabay/CC0 Domaine public
Le professeur Stefan Feuergel est directeur de l’Institut d’intelligence artificielle (IA) en gestion au LMU et ses recherches portent sur les défis de los angeles obscure de numérisation.
Dans un commentaire récemment publié dans le mag L. a. nature du comportement humainIl souligne les risks posés par los angeles désinformation générée par l’intelligence artificielle et suggère des moyens de les contrer.
D’une easy pression sur un bouton, les outils d’IA sont désormais capables de créer du texte, des pictures, des sons et même des vidéos convaincants. Pouvons-nous encore faire confiance à nos yeux, à nos oreilles et à notre bon sens pour avancer ?
Stefan Feuerigel : Une picture du pape François devenue virale au printemps dernier montre à quel level ce contenu manufacturé peut être convaincant. Les gens ordinaires étaient à peine équipés pour reconnaître si une picture était réelle ou non. Bien sûr, autrefois, des artistes talentueux étaient capables de tromper le public et les mavens avec de fausses peintures.
Mais dans le cas de l’symbol du Pape, il y a european une personne qui a rapidement produit des dizaines de copies de cette symbol. Cela a mis en évidence ce qui peut être réalisé aujourd’hui grâce à l’IA, automobile ces pictures sont faciles à produire et ne nécessitent pas de compétences particulières.
À l’heure actuelle, les programmes d’IA ne parviennent toujours pas à obtenir certains détails individuels : parfois, l’arrière-plan est un peu décalé et l’IA a l’habitude d’afficher les mains avec trop ou pas assez de doigts. Cependant, les ingénieurs développent et améliorent los angeles technologie à un rythme rapide. Au cours des prochains mois, des améliorations seront évidentes.
Le rôle des sciences du comportement à l’ère de los angeles désinformation générée par l’intelligence artificielle. L. a. science comportementale peut améliorer les stratégies de détection et d’atténuation pour les humains afin de lutter contre los angeles désinformation générée par l’IA. crédit: L. a. nature du comportement humain (2023). est ce que je: 10.1038/s41562-023-01726-2
Qu’est-ce qui rend les fausses nouvelles générées par l’IA particulièrement dangereuses ?
Malheureusement, non seulement les produits contrefaits avec un texte sans erreur et des pictures d’apparence authentique sont très convaincants, mais l’intelligence artificielle permet également de personnaliser los angeles désinformation, en l’adaptant à los angeles faith, au sexe ou aux convictions politiques des consommateurs individuels et en suscitant los angeles colère ou los angeles haine. tous. Groupe ciblé.
Vous pouvez créer un robotic qui ne se contente plus de publier un message, mais qui écrit personnellement aux personnes sur Fb ou Twitter, répond aux réponses et poursuit les conversations. Cela s’étend même aux canulars, où des escrocs ou d’autres mauvais acteurs génèrent intentionnellement une voix qui ressemble à celle d’un membre de los angeles famille d’une personne.
Quand chercher les fautes de frappe et compter les doigts ne suffit plus, quels signes peuvent nous alerter des contrefaçons ?
Quant au contenu, il n’y a aucune marque. Ou du moins, il n’y en charisma pas de si tôt. Soit vous vous appuyez sur certaines resources fiables, soit vous devez faire vos propres recherches. Cependant, vous devez savoir que les fournisseurs de fake faits peuvent obtenir des classements importants dans les moteurs de recherche by the use of des websites Internet et des resources générées par l’IA. De plus, les pictures sur les réseaux sociaux sont si petites que les gens ne peuvent même pas détecter les éventuelles erreurs.
Des pictures et des vidéos en basse résolution circulent sur Web qui ne permettent pas aux gens d’évaluer correctement si elles sont réelles ou fausses. Il est donc difficile de faire los angeles difference entre les fausses informations et le contenu réel. Dans les conflits armés, le pouvoir des pictures et des médias sociaux joue un rôle necessary et peut avoir un affect politique explosif. Ici aussi, nous voyons déjà du matériel généré par l’IA être déployé aux côtés des contrefaçons traditionnelles.
Sommes-nous entrés dans une nouvelle ère de désinformation médiatique ?
Beaucoup de mes collègues disent que nous vivons déjà à l’ère des fausses nouvelles. Le problème va empirer. L. a. query cruciale est los angeles suivante : qui exploitera ces nouvelles possibilités ? Je suis moins préoccupé par les individus qui diffusent des informations erronées by the use of ChatGPT ou DALL·E. Ces personnes ont rarement l’envergure, voire le désir, d’exercer une grande affect. Nous devrions plutôt surveiller les acteurs qui utilisent ces outils dans des campagnes de désinformation à grande échelle, les calibrent délibérément, voire développent leurs propres outils sans aucun mécanisme de sécurité intégré.
Les choses deviennent très dangereuses lorsque de grands acteurs entrent en jeu, par exemple un acteur étatique d’un État non démocratique ayant un time table politique particulier. Dans le contexte de l’invasion russe de l’Ukraine, nous avons vu combien d’efforts ont été consacrés à los angeles propagande pro-russe. En fait, pourquoi les agences responsables ne travaillent-elles pas avec ces nouveaux outils, qui leur permettent de réagir plus rapidement et de produire des contenus qui paraissent authentiques à une bien plus grande échelle ? Il est naïf de penser que ces opportunités ne seront pas exploitées.
Les vérificateurs de faits sont-ils capables de suivre tout cela ?
Nous savons que les vérificateurs humains ont besoin de 24 heures pour vérifier une actualité. À ce moment-là, il pourrait être devenu viral depuis longtemps. Dans le contexte des crises actuelles en particulier, dénoncer los angeles désinformation avant qu’elle ne se propage constitue un défi majeur. Fb et Twitter utilisent actuellement l’IA générative pour identifier automatiquement les fausses nouvelles.
Des discussions sont également en cours sur l’utilisation de filigranes, grâce auxquels les plateformes peuvent reconnaître et filtrer le contenu généré par l’IA. Cela nécessite los angeles coopération des plateformes. Cela ne sert à rien que Twitter utilise cet outil, mais los angeles désinformation se propage alors largement sur WhatsApp. De plus, il existe encore des acteurs qui ne respectent pas les règles et programment leur propre IA sans filigrane.
Remark contrer le flot de désinformation lié à l’intelligence artificielle ?
Personnellement, je suis devenu plus prudent quant au contenu que je consomme. Nous devons être plus vigilants sur ce que nous lisons, notamment sur les réseaux sociaux. Malheureusement, beaucoup de gens ne sont pas conscients de ce problème. Même s’ils savent que l’IA est succesful de produire des textes de haute qualité et des pictures réalistes, ils ne se rendent pas encore compte de los angeles manière dont cette technologie peut être utilisée à mauvais escient.
Tout d’abord, les plateformes doivent être conçues pour assumer leurs responsabilités. Ils connaissent les resources d’knowledge. Seuls les utilisateurs voient les publications, tandis que les plateformes peuvent savoir si un programme informatique diffuse ces contenus en arrière-plan ou si une personne réelle se trouve derrière eux. En outre, les opérateurs de réseaux peuvent rappeler à leurs membres d’évaluer et de vérifier de manière critique les informations. Les plateformes peuvent également faire beaucoup pour filtrer les fausses nouvelles, certaines font des efforts à cet égard, d’autres non.
Deuxièmement, nous devons informer et préparer chacun et le public en général. Nous avons besoin de cours de compétences médiatiques et d’alphabétisation numérique qui couvrent los angeles désinformation liée à l’IA et qui sont constamment mis à jour à mesure que los angeles technologie évolue.
Troisièmement, il y a los angeles query de savoir ce que les hommes politiques devraient faire et dans quelle mesure los angeles réglementation est utile et efficace. Il s’agit d’une query épineuse automobile de telles mesures peuvent porter atteinte à los angeles liberté d’expression. L’IA est actuellement en tête de l’time table du Parlement européen, et je pense que nous pouvons trouver assez rapidement de bonnes answers en termes de cadres réglementaires.
Sommes-nous prêts pour ce qui s’en vient ? Où avons-nous besoin de plus de recherches ?
Non, nous ne sommes pas suffisamment préparés. Nous avons affaire à une nouvelle technologie que nous devons mieux comprendre, ce qui nécessite davantage de recherche fondamentale. Heureusement, de nombreuses recherches sont en cours dans ce domaine, notamment au LMU. Des linguistes, des sociologues, des politologues et des chercheurs de nombreuses autres disciplines étudient ce sujet complexe. Les spécialistes du comportement s’efforcent de comprendre remark les gens réagissent à de telles informations générées artificiellement.
Les juristes examinent les hindrances juridiques et cherchent à équilibrer le précieux bien qu’est los angeles liberté d’expression avec des approches concrètes et orientées vers des answers. Dans le même temps, le provider informatique a pour project de savoir ce qui est technologiquement imaginable. Nous avons un environnement interdisciplinaire à LMU, où de nombreux domaines de recherche différents travaillent collectivement pour développer un programme de recherche.
Plus d’knowledge:
Stefan Feuergel et al., los angeles recherche peut aider à lutter contre los angeles désinformation générée par l’intelligence artificielle, L. a. nature du comportement humain (2023). est ce que je: 10.1038/s41562-023-01726-2
Fourni par l’Université Ludwig Maximilian de Munich
los angeles quotation: Questions et réponses : Intelligence artificielle – Endiguer los angeles obscure de fake faits (21 novembre 2023) Récupéré le 21 novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.