Crédit : Pixabay/CC0 Domaine public
Alors que l’AI Summit bat son plein, les chercheurs tiennent à soulever le vrai problème de los angeles technologie : lui apprendre à oublier.
Los angeles société regorge désormais d’intelligence artificielle moderne et de ses capacités exceptionnelles. On nous rappelle constamment ses avantages potentiels, dans de nombreux domaines, qui imprègnent pratiquement tous les facets de nos vies – mais aussi ses risks.
Dans un domaine de recherche émergent, les scientifiques mettent en évidence une arme importante dans notre arsenal pour atténuer les risques liés à l’IA : « l’effacement de l’apprentissage automatique ». Ils contribuent à découvrir de nouvelles façons de faire oublier aux modèles d’intelligence artificielle appelés réseaux de neurones profonds (DNN) les données qui présentent un risque pour los angeles société.
Le problème est que recycler les programmes d’IA pour « oublier » les données est une tâche extrêmement coûteuse et ardue. Les DNN modernes tels que ceux basés sur des « grands modèles de langage » (par exemple ChatGPT, Bard, and many others.) nécessitent d’énormes ressources pour être formés, et cela prend des semaines ou des mois. Cela nécessite également des dizaines de gigawattheures d’énergie par programme de formation, et certaines recherches estiment que cela équivaut à alimenter des milliers de foyers pendant un an.
L’effacement par apprentissage automatique est un domaine de recherche en plein essor qui permet de supprimer les données bruitées des DNN rapidement, à moindre coût et en utilisant moins de ressources. L’objectif est de le faire tout en garantissant une grande précision. Les professionals en informatique de l’Université de Warwick, en collaboration avec Google DeepMind, sont à l’avant-garde de cette recherche.
Le professeur Peter Triantafilou, Département d’informatique de l’Université de Warwick, a récemment co-écrit une e-newsletter intitulée In opposition to Unbounded System Studying, qui apparaît sur le serveur de préimpression. arXiv. “Les DNN sont des constructions extrêmement complexes, comprenant jusqu’à des milliards de paramètres. Souvent, nous ne comprenons pas exactement remark et pourquoi ils atteignent leurs objectifs. Compte tenu de leur complexité ainsi que de los angeles complexité et de los angeles taille des ensembles de données sur lesquels ils sont formés”, a-t-il déclaré. dit. Cependant, les DNN peuvent être préjudiciables à los angeles société.
“Les réseaux de neurones profonds peuvent être nocifs, par exemple, s’ils sont formés sur des données biaisées – et propagent ainsi des stéréotypes négatifs. Les données peuvent refléter des préjugés, des stéréotypes et de fausses hypothèses sociétales – comme le préjugé selon lequel les médecins sont des hommes, les infirmières sont des femmes – ou voire des préjugés racistes. » .
« Les DNN peuvent également contenir des données contenant des « annotations erronées » – par exemple, une classification incorrecte des objets, comme los angeles classification d’une symbol comme extrêmement fausse ou non.
“Il est alarmant de constater que les DNN peuvent être formés sur des données qui portent atteinte à los angeles vie privée des individus. Cela pose un défi majeur aux géants de los angeles technologie, avec des législations importantes (par exemple le RGPD) visant à protéger le droit à l’oubli – et c’est los angeles bonne resolution.” personne demandant que ses données soient supprimées de tout ensemble de données et de tout logiciel d’intelligence artificielle.
“Nos recherches récentes ont mis au level un nouvel algorithme” d’annulation d’apprentissage automatique “qui garantit que les DNN peuvent oublier les données douteuses, sans compromettre les performances globales de l’IA. L’algorithme pourrait être transmis à un DNN, lui faisant oublier spécifiquement les données dont nous avons besoin, sans avoir à le faire.” Entièrement formé à partir de zéro, c’est le seul travail qui fait los angeles différence entre les besoins, les exigences et les mesures de réussite parmi trois sorts de données différents qui devraient être oubliés : les biais, les mauvaises annotations et les problèmes de confidentialité.
“L’effacement de l’apprentissage automatique est un domaine de recherche passionnant et peut être un outil necessary pour atténuer les risques liés à l’IA.”
Plus d’knowledge:
Mokdad Karmanji et al., Vers un renoncement illimité à los angeles system, arXiv (2023). est ce que je: 10.48550/arxiv.2302.09880
arXiv
Fourni par l’Université de Warwick
los angeles quotation: Apprendre à oublier – Une arme dans l’arsenal contre l’IA nuisible (2 novembre 2023) Récupéré le 2 novembre 2023 sur
Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.