Sur cette photograph, les websites ordinateur et cell de Solid Diffusion, le mardi 24 octobre 2023, à New York. Des pictures générées par ordinateur d’abus sexuels sur des enfants, créées à l’aide d’outils d’intelligence artificielle tels que Solid Diffusion, ont commencé à circuler en ligne et sont si réalistes qu’elles sont impossibles à distinguer des pictures représentant de vrais enfants, selon un nouveau rapport. Crédit photograph : AP Picture/John Minchillo
Los angeles propagation déjà alarmante d’pictures d’abus sexuels sur des enfants en ligne pourrait s’aggraver si des mesures ne sont pas prises pour contrôler les outils d’intelligence artificielle qui génèrent de fausses pictures, a prévenu mardi une agence de surveillance.
Dans un rapport écrit, l’Web Watch Basis, basée au Royaume-Uni, a exhorté les gouvernements et les fournisseurs de applied sciences à agir rapidement avant que le déluge d’pictures d’abus sexuels sur enfants générées par l’IA ne submerge les enquêteurs des forces de l’ordre et n’étende considérablement le bassin de victimes potentielles.
“Nous ne parlons pas des dégâts que cela pourrait causer”, a déclaré Dan Sexton, directeur de l. a. technologie du groupe de surveillance. «Cela se produit maintenant et il faut y remédier maintenant.»
Dans le premier cas du style en Corée du Sud, un homme a été condamné en septembre à deux ans et demi de jail pour avoir utilisé l’intelligence artificielle pour créer des pictures virtuelles à 360° d’abus sur des enfants, selon le tribunal du district de Busan en le sud-est. .
Dans certains cas, les enfants utilisent ces outils les uns sur les autres. Dans une école du sud-ouest de l’Espagne, l. a. police enquête sur des allégations selon lesquelles des children auraient utilisé une utility téléphonique pour faire apparaître nus leurs camarades de classe entièrement habillés sur des footage.
Le rapport révèle un côté sombre de l. a. path à l. a. création de systèmes d’IA créatifs qui permettent aux utilisateurs de décrire avec des mots ce qu’ils souhaitent produire – des e-mails aux nouvelles œuvres d’artwork ou vidéos – et de laisser le système le recracher.
S’il n’est pas stoppé, le déluge de fausses pictures d’abus sexuels sur des enfants pourrait entraver les enquêteurs qui tentent de sauver des enfants qui se révèlent être des personnages virtuels. Les auteurs peuvent également utiliser les pictures pour préparer et contraindre de nouvelles victimes.
Sexton a déclaré que les analystes de l’IWF ont découvert les visages d’enfants populaires en ligne ainsi que “une énorme demande de créer davantage d’pictures d’enfants qui ont déjà été maltraités, peut-être depuis des années”.
“Ils prennent le contenu réel existant et l’utilisent pour créer du nouveau contenu pour ces victimes”, a-t-il déclaré. “C’est incroyablement choquant.”
Sexton a déclaré que son organisation caritative, qui se concentre sur l. a. lutte contre les abus sexuels sur enfants en ligne, a commencé à produire des rapports sur les pictures offensantes générées par l’intelligence artificielle plus tôt cette année. Cela a conduit à une enquête sur les boards du darkish internet, une partie d’Web hébergée dans un réseau crypté et out there uniquement by means of des outils garantissant l’anonymat.
Ce que les analystes de l’IWF ont découvert, c’est que les agresseurs échangeaient des conseils et s’émerveillaient de l. a. facilité avec laquelle ils pouvaient transformer leurs ordinateurs personnels en usines produisant des pictures sexuellement explicites d’enfants de tous âges. Certains font également du trade et tentent de tirer benefit de ces pictures qui semblent de plus en plus réalistes.
“Ce que nous commençons à voir, c’est cette explosion de contenu”, a déclaré Sexton.
Alors que le rapport de l’IWF vise à souligner un problème croissant au-delà de l. a. fourniture de prescriptions, il exhorte les gouvernements à renforcer les lois pour faciliter l. a. lutte contre les abus résultant de l’IA. Il cible particulièrement l’Union européenne, où il existe une controverse sur les mesures de surveillance qui pourraient analyser automatiquement les packages de messagerie à l. a. recherche d’pictures suspectées d’abus sexuels sur des enfants, même si les pictures ne sont pas connues auparavant des forces de l’ordre.
L’objectif du groupe est d’éviter que d’anciennes victimes d’agressions sexuelles ne soient revictimisées en redistribuant leurs pictures.
Le rapport indique que les fournisseurs de applied sciences pourraient faire davantage pour rendre plus difficile l’utilisation des produits qu’ils ont fabriqués de cette manière, même si l. a. query est compliquée par l. a. difficulté de remettre certains outils dans l. a. bouteille.
Une multitude de nouveaux générateurs d’pictures IA ont été introduits l’année dernière et ont séduit le public par leur capacité à créer des pictures fantaisistes ou réalistes à l. a. demande. Mais l. a. plupart d’entre eux ne sont pas favorisés par les producteurs de matériel pédopornographique automobile ils contiennent des mécanismes pour les empêcher.
Les fournisseurs de technologie qui ont verrouillé les modèles d’IA, avec un contrôle overall sur l. a. façon dont ils sont formés et utilisés – par exemple, le générateur d’pictures DALL-E d’OpenAI – ont mieux réussi à prévenir les utilisations abusives, a déclaré Sexton.
En revanche, l’outil de choix pour les producteurs d’pictures d’abus sexuels sur des enfants est l’outil open supply Solid Diffusion, développé par l. a. startup londonienne Steadiness AI. Lorsque Solid Diffusion est entré en scène à l’été 2022, un sous-ensemble d’utilisateurs a rapidement appris à l’utiliser pour créer de l. a. nudité et de l. a. pornographie. Même si l. a. plupart de ces paperwork représentaient des adultes, ils étaient souvent non consensuels, comme lorsqu’ils étaient utilisés pour créer des pictures de nus inspirées par des célébrités.
Steadiness a ensuite déployé de nouveaux filtres qui bloquent les contenus dangereux et inappropriés, et l. a. licence d’utilisation du logiciel de Steadiness est accompagnée d’une interdiction des utilisations illégales.
Los angeles société a déclaré dans un communiqué publié mardi qu’elle “interdit fermement toute utilisation abusive à des fins illégales ou contraires à l’éthique” sur ses plateformes. “Nous soutenons fermement les efforts d’utility de l. a. loi contre ceux qui utilisent nos produits à des fins illégales ou néfastes”, indique le communiqué.
Les utilisateurs peuvent toujours accéder aux anciennes variations de Solid Diffusion, qui est “le logiciel de choix… pour les personnes qui créent du contenu explicite incluant des enfants”, a déclaré David Thiel, professional en technologie en chef à l’Observatoire Web de Stanford, un autre groupe de surveillance étudiant l. a. query. . ” . .
Le rapport de l’IWF reconnaît l. a. difficulté de tenter de criminaliser les outils de génération d’pictures de l’IA eux-mêmes, même ceux « peaufinés » pour produire du matériel offensant.
“Vous ne pouvez pas réglementer ce que les gens font sur leur ordinateur, dans leur chambre. Ce n’est pas imaginable”, a ajouté Sexton. « Alors, remark pouvons-nous en arriver au level où ils ne peuvent pas utiliser de logiciels accessibles au public pour créer du contenu malveillant comme celui-ci ?
Los angeles plupart des pictures d’abus sexuels sur enfants générées par l’IA sont illégales en vertu des lois en vigueur aux États-Unis, au Royaume-Uni et ailleurs, mais il reste à voir si les forces de l’ordre disposent des outils nécessaires pour les combattre.
Un responsable de l. a. police britannique a déclaré que le rapport montrait l’have an effect on déjà subi par les brokers travaillant à identifier les victimes.
Une déclaration d’Ian a déclaré : « Nous voyons des enfants être soignés, nous voyons des agresseurs créer des pictures d’eux-mêmes selon leurs propres spécifications, nous voyons des pictures d’IA produites à des fins commerciales, tout cela normalise le viol et les abus sur de vrais enfants. » Critchley, responsable de l. a. coverage de l’enfance au Conseil nationwide des cooks de police.
Le rapport de l’IWF précède le rassemblement mondial sur l. a. sécurité de l’IA organisé l. a. semaine prochaine par le gouvernement britannique, auquel participeront des contributors de haut niveau, notamment l. a. vice-présidente américaine Kamala Harris et des leaders technologiques.
“Bien que ce rapport dresse un tableau sombre, je suis optimiste”, a déclaré Susie Hargreaves, PDG de l. a. Fédération internationale d’haltérophilie, dans une déclaration écrite préparée. Elle a déclaré qu’il était necessary de communiquer les faits sur le problème à un « huge public automobile nous devons avoir des discussions sur le côté obscur de cette technologie étonnante ».
© 2023 Los angeles Presse associée. Tous droits réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.
l. a. quotation: Les pictures d’abus sexuels sur enfants générées par l’IA pourraient inonder Web. L’organisme de surveillance appelle à l’motion (25 octobre 2023) Récupéré le 28 octobre 2023 sur
Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.