Une équipe dirigée par des chercheurs de l’Université de Washington a développé des algorithmes d’apprentissage profond qui permettent aux utilisateurs de choisir en temps réel quels sons sont filtrés by means of leurs écouteurs. Sur los angeles photograph, le co-auteur Malek Itani explique le système. Crédit : Université de Washington
L. a. plupart des personnes qui utilisent des écouteurs antibruit savent qu’entendre le bon bruit au bon second peut être necessary. Quelqu’un voudra peut-être klaxonner sa voiture lorsqu’il travaille à l’intérieur, mais pas lorsqu’il marche dans des rues très fréquentées. Cependant, les gens ne peuvent pas choisir quels sons les écouteurs annulent.
Aujourd’hui, une équipe dirigée par des chercheurs de l’Université de Washington a développé des algorithmes d’apprentissage profond qui permettent aux utilisateurs de choisir en temps réel quels sons sont filtrés dans leurs écouteurs. L’équipe appelle le système « l’audition sémantique ». Les écouteurs diffusent l’audio capturé vers un smartphone connecté, éliminant ainsi tous les sons environnementaux.
Que ce soit by means of des commandes vocales ou une utility pour smartphone, les porteurs d’écouteurs peuvent choisir les sons qu’ils souhaitent inclure parmi 20 catégories, telles que les sirènes, les bébés qui pleurent, los angeles parole, les aspirateurs et les chants d’oiseaux. Seuls les sons sélectionnés seront joués au casque.
L’équipe a présenté ses résultats le 1er novembre à l’UIST ’23 à San Francisco. À l’avenir, les chercheurs prévoient de publier une model commerciale du système.
“Comprendre los angeles voix d’un oiseau et l’extraire de tous les autres sons de l’environnement nécessite une intelligence en temps réel que les écouteurs antibruit actuels ne permettent pas d’atteindre”, a déclaré le chercheur foremost Shyam Gollakota, professeur à l’école Paul G. Allen de l’Université du Wisconsin. d’ingénierie. Génie informatique.
“Le défi est que les sons entendus par les porteurs d’écouteurs doivent être synchronisés avec leurs sens visuels. Vous ne pouvez pas entendre los angeles voix de quelqu’un deux secondes après qu’il vous a parlé. Cela signifie que les algorithmes neuronaux doivent traiter les sons en moins d’un centième de temps.” une seconde.”
En raison de ce manque de temps, le système d’audition sémantique doit traiter les sons sur un appareil tel qu’un smartphone connecté, plutôt que sur des serveurs cloud plus puissants. De plus, étant donné que les sons provenant de différentes instructions atteignent les oreilles des personnes à des moments différents, le système doit préserver ces retards et autres signaux spatiaux afin que les personnes puissent percevoir de manière significative les sons de leur environnement.
Testé dans des environnements tels que des bureaux, des rues et des parcs publics, le système a pu extraire des sirènes, des gazouillis d’oiseaux, des alarmes et d’autres sons de cible, tout en supprimant tous les autres bruits du monde réel. Lorsque 22 contributors ont évalué los angeles sortie audio du système de l’audio cible, ils ont déclaré que los angeles qualité s’était améliorée en moyenne par rapport à l’enregistrement authentic.
Dans certains cas, le système avait du mal à distinguer les sons partageant de nombreuses caractéristiques, comme los angeles musique vocale et los angeles parole humaine. Les chercheurs notent que les modèles de formation basés sur davantage de données réelles pourraient améliorer ces résultats.
Les co-auteurs supplémentaires de l’article sont Pandhav Vellore et Malek Itani, tous deux doctorants à l’UW Allen Faculty ; Justin Chan, qui a réalisé cette recherche en tant que doctorant à l’Allen Faculty et qui est maintenant à l’Université Carnegie Mellon ; et Takuya Yoshioka, directeur de recherche chez AssemblyAI.
Plus d’knowledge:
Pandhave Vellore et al., Audition sémantique : programmation de scènes sonores à l’aide d’aides auditives binaurales, Actes du 36e symposium annuel de l’ACM sur les logiciels et applied sciences d’interface utilisateur (2023). est ce que je: 10.1145/3586183.3606779
Fourni par l’Université de Washington
los angeles quotation: L. a. nouvelle technologie de casque antibruit AI permet aux utilisateurs de choisir les sons qu’ils entendent (9 novembre 2023) Récupéré le 9 novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.