Une étude révèle des vulnérabilités dans le filigrane du contenu généré par l’IA

Un aperçu de l’attaque révélée par les chercheurs. (1) L’adversaire collecte des données auprès du provider AIGC cible. (2) L’adversaire utilise un modèle de débruitage open supply pour nettoyer les données collectées. (3) L’adversaire adopte les données originales et nettoyées pour entraîner le GAN, qui peut être utilisé pour supprimer ou usurper le filigrane. Les pictures en noir et blanc désignent respectivement les pictures avec et sans filigrane. Crédit : Lee et coll.

Avec l’émergence de LensaAI, ChatGPT et d’autres modèles d’apprentissage automatique génératif hautes performances, Web est désormais de plus en plus saturé de textes, d’pictures, de trademarks et de vidéos générés par l’intelligence artificielle (IA). Ce contenu, largement appelé contenu généré par l’intelligence artificielle (AIGC), peut souvent être facilement confondu avec le contenu généré par des humains ou par des modèles informatiques.

Par conséquent, l’utilisation croissante de modèles d’IA génératifs a soulevé des questions clés concernant los angeles propriété intellectuelle et le droit d’auteur. En fait, de nombreuses entreprises et développeurs ne sont pas satisfaits de l’utilisation commerciale généralisée du contenu généré par leurs modèles et ont donc introduit des filigranes pour réglementer los angeles e-newsletter de l’AIGC.

Les filigranes sont essentiellement des motifs ou des marques distinctives qui peuvent être placés sur des pictures, des vidéos ou des trademarks pour montrer qui les a créés et qui en détient les droits d’auteur. Bien que le filigrane soit largement utilisé depuis des décennies, son efficacité dans los angeles réglementation de l’utilisation de l’AIGC n’a pas encore été établie.

Des chercheurs de l’Université technologique de Nanyang, de l’Université de Chongqing et de l’Université du Zhejiang ont récemment mené une étude pour explorer l’efficacité du filigrane comme moyen d’empêcher los angeles e-newsletter AIGC indésirable et non attribuée. Leur article est publié sur un serveur de prépublication arXividentifie deux stratégies qui pourraient permettre aux attaquants de supprimer et de falsifier facilement des filigranes sur AIGC.

“Récemment, l’AIGC est devenu un sujet brûlant dans los angeles communauté”, a déclaré Guanlin Li, co-auteur de l’article, à Tech Xplore. “De nombreuses entreprises ajoutent des filigranes à AIGC pour protéger los angeles propriété intellectuelle ou restreindre l’utilisation illégale. Un soir, nous avons discuté de los angeles possibilité d’explorer un nouveau filigrane avancé pour les modèles génératifs. Je viens de dire, pourquoi ne pas attaquer les systèmes de filigrane existants ? Si nous le pouvons . » Si vous supprimez le filigrane, certains AIGC illégaux ne seront pas traités comme des IA générées. Ou si nous créons un filigrane dans un contenu du monde réel, il peut être traité comme généré par l’IA. “Cela pourrait provoquer beaucoup de chaos sur Web.”

Dans le cadre de leur étude, Li et ses collègues ont démontré une stratégie informatique permettant d’effacer ou de déformer les filigranes dans les pictures générées par des modèles d’intelligence artificielle. Une personne utilisant cette stratégie collecte d’abord les données de l’entreprise d’IA, de l’software ou du provider de création de contenu cible, puis utilise un modèle de débruitage out there au public pour « nettoyer » ces données.

Photographs propres et sortie correspondante produites par le modèle de l’équipe. Les deux premières lignes sont des pictures nettes. Crédit : Lee et coll.

Enfin, l’utilisateur devra former un réseau contradictoire génératif (GAN) en utilisant ces données pures. Les chercheurs ont découvert qu’après los angeles formation, ce modèle basé sur le GAN était succesful de supprimer ou de simuler le filigrane.

“L’idée derrière notre étude est très claire”, a expliqué Lee. “Si nous voulons identifier quel contenu est filigrané, los angeles distribution du contenu filigrané doit être différente du contenu authentic. Par conséquent, si nous pouvons comprendre los angeles projection entre ces deux distributions, nous pourrons supprimer ou simuler le filigrane. ”

Lors des premiers exams, Lee et ses collègues ont constaté que leur stratégie spécifique était très efficace pour supprimer les filigranes et les contrefaçons de diverses pictures générées par le provider de création de contenu basé sur l’IA. Leurs travaux mettent ainsi en évidence les faiblesses et, par conséquent, l’impossibilité pratique de l’utilisation de filigranes pour faire respecter les droits d’auteur de l’AIGC.

“Il n’est pas surprenant que les systèmes de filigrane avancés puissent être facilement supprimés ou falsifiés si l’adversaire dispose d’informations complètes sur les systèmes de filigrane, mais il est surprenant que même si nous n’avons que du contenu filigrané, nous pouvons toujours le faire”, a déclaré Li. .

“D’un autre côté, notre méthode repose sur los angeles distribution des données et suggère donc que les systèmes de tatouage existants ne sont pas sécurisés. Pour être honnête, je ne veux pas que notre travail devienne une threat réelle, automotive cela pourrait nous empêcher pour contrôler les modèles génératifs. Personnellement, j’espère que cela inspirera d’autres personnes à concevoir des systèmes de filigrane plus avancés pour se défendre contre nos attaques.

Les derniers travaux de cette équipe de chercheurs pourraient bientôt inciter les entreprises et les développeurs spécialisés dans l’IA générative à développer des méthodes de tatouage plus avancées ou des méthodes choices et plus adaptées pour empêcher le déploiement illégal d’AIGC. Inspirés par leurs découvertes, Li et ses collègues tentent désormais également de développer certaines de ces méthodes.

“Nous étudions actuellement principalement de nouveaux schémas de filigrane pour les modèles génératifs, non seulement pour les tactics de génération d’pictures, mais également pour d’autres modèles”, a ajouté Lee.

Plus d’data:
Guanlin Li et al., Vers un filigrane faible du contenu généré par l’IA, arXiv (2023). DOI : 10.48550/arxiv.2310.07726

Informations sur les magazines :
arXiv

© 2023 Réseau ScienceX

los angeles quotation: Une étude révèle des vulnérabilités dans le contenu généré par l’IA (25 octobre 2023) Récupéré le 30 octobre 2023 sur

Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.