Representation des appareils HPC distribués et des différents canaux de communique. crédit: Magazine du supercalcul (2023). est ce que je: 10.1007/s11227-023-05587-4
Un algorithme d’apprentissage automatique a démontré sa capacité à traiter des données qui dépassent los angeles mémoire disponible d’un ordinateur en identifiant les caractéristiques clés d’un énorme ensemble de données et en les décomposant en loads gérables qui ne limitent pas les ordinateurs. Développé au laboratoire nationwide de Los Alamos, l’algorithme a établi un file mondial pour l’analyse d’énormes ensembles de données lors de checks au laboratoire nationwide d’Oak Ridge, le cinquième supercalculateur le plus rapide au monde.
L’algorithme hautement évolutif fonctionne efficacement sur les ordinateurs portables et les superordinateurs, résolvant les goulots d’étranglement matériels qui empêchent le traitement des informations provenant d’packages riches en données dans los angeles recherche sur le most cancers, l’imagerie satellite tv for pc, les réseaux sociaux, los angeles science de los angeles sécurité nationale et los angeles recherche sur les tremblements de terre, par exemple.
“Nous avons développé une implémentation hors mémoire de los angeles méthode de factorisation matricielle non négative qui vous permet d’analyser des ensembles de données plus volumineux que ce qui était auparavant conceivable sur un appareil donné”, a déclaré Ismail Bourima, physicien computationnel au Laboratoire nationwide de Los Alamos. Bourima est le premier auteur de l’article en Magazine du supercalcul Sur un algorithme file.
“Notre implémentation décompose simplement les données volumineuses en unités plus petites qui peuvent être traitées avec les ressources disponibles. Il s’agit donc d’un outil utile pour suivre des ensembles de données en croissance exponentielle.”
“L’analyse traditionnelle des données nécessite que les données respectent les contraintes de mémoire”, a déclaré Manish Bhattarai, scientifique en apprentissage automatique à Los Alamos et co-auteur de l’étude. “Notre approche remet en query cette idée.”
“Nous avons fourni une answer au manque de mémoire. Lorsque los angeles taille des données dépasse los angeles mémoire disponible, notre algorithme les divise en morceaux plus petits. Il traite ces morceaux un par un, en les faisant pivoter dans et hors de los angeles mémoire. Cette technologie nous offre une capacité distinctive à gérer et analyser de très grands ensembles de données. » « Efficacement. »
L’algorithme distribué pour les systèmes informatiques modernes, hétérogènes et hautes performances pourrait être utile sur des machines aussi petites qu’un ordinateur de bureau, ou aussi grandes et complexes que Chicoma, Summit ou les prochains supercalculateurs Venado, a déclaré Bourima.
« L. a. query n’est plus de savoir s’il est conceivable d’analyser une matrice plus grande, mais plutôt combien de temps prendra l’analyse », a déclaré Bourima.
Los Alamos profite de fonctionnalités matérielles telles que des unités de traitement graphique pour accélérer les calculs et une interconnexion rapide pour transférer efficacement les données entre les ordinateurs. Dans le même temps, l’algorithme accomplit simultanément et efficacement plusieurs tâches.
L. a. factorisation matricielle non négative est une autre partie des algorithmes hautes performances développés dans le cadre du projet SmartTensors à Los Alamos.
Dans l’apprentissage automatique, los angeles factorisation matricielle non négative peut être utilisée comme une forme d’apprentissage non supervisé pour extraire le sens des données, a déclaré Bourima. “Cela est très necessary pour l’apprentissage automatique et l’analyse des données, automobile l’algorithme peut identifier les caractéristiques latentes interprétables des données qui ont une signification particulière pour l’utilisateur.”
Carrière file
Dans l’opération file de l’équipe de Los Alamos, l’algorithme a traité une matrice dense de 340 téraoctets et une matrice clairsemée de 11 exaoctets, en utilisant 25 000 GPU.
“Nous avons réalisé une analyse en exaoctet, ce que personne d’autre n’a fait à notre connaissance”, a déclaré Boyan Alexandrov, co-auteur du nouvel article et physicien théoricien à Los Alamos qui a dirigé l’équipe qui a développé los angeles plateforme d’IA SmartTensors. .
L’analyse ou factorisation des données est une methodology spécialisée d’exploration de données qui vise à extraire des informations pertinentes et à simplifier les données dans des codecs compréhensibles.
Bhattarai a également souligné l’évolutivité de leurs algorithmes, notant : « En revanche, les méthodes traditionnelles rencontrent souvent des goulots d’étranglement, principalement dus aux retards dans le transfert de données entre les processeurs d’un ordinateur et los angeles mémoire. »
« Nous avons également montré qu’il n’est pas nécessairement nécessaire de gros ordinateurs », a déclaré Bourima. « Passer à 25 000 GPU est une bonne selected si vous pouvez vous le permettre, mais notre algorithme sera utile sur les ordinateurs de bureau pour quelque selected que vous ne pouviez pas gérer auparavant. »
Plus d’knowledge:
Ismail Bourima et al., NMF distribué avec manque de mémoire sur les architectures CPU/GPU, Magazine du supercalcul (2023). est ce que je: 10.1007/s11227-023-05587-4
Fourni par le Laboratoire nationwide de Los Alamos
los angeles quotation: Gadget Finding out Masters Large Knowledge Units: Set of rules Breaks the Exabyte Barrier (2023, 11 septembre) Récupéré le 31 octobre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.