00:00 / 22:08
#1 Introduction
#1
Introduction
#2
Hybrider l'IA et la connaissance pour mieux comprendre le son
00:40
#3
Des avancées concrètes : dé-réverbération, génération et séparation des sons
03:08
#4
IA frugale et sobriété numérique : vers des modèles plus économes
06:32
#5
Applications pour les musiciens : analyser, transformer et synthétiser le son
07:09
#6
Enregistrer en asynchrone : une plateforme pour musiciens connectés
08:08
#7
L'essor fulgurant du machine listening et son évolution en IA
10:38
#8
De la synthèse sonore aux modèles de langage pour l'audio
11:40
#9
L'IA et la synthèse vocale : des prémices aux avancées actuelles
12:27
#10
Reconnaissance musicale : au-delà de l'empreinte sonore
13:27
#11
Vers une reconnaissance musicale plus avancée grâce à l'IA
15:16
#12
Casques intelligents : l'IA au service du son ambiant
16:19
#13
L'audition artificielle, un défi pour la voiture autonome
17:40
#14
IA et industrie : maintenance prédictive et contrôle par le son
18:52
#15
Créer des sons inédits : l'IA au-delà des instruments réels
20:16
#16
Conclusion
21:44
Quand l'IA apprend à écouter : révolution sonore et machine listening
Quand l'IA apprend à écouter : révolution sonore et machine listening
Avec Gaël Richard, enseignant-chercheur en Traitement de l'Information à Télécom Paris et co-directeur scientifique de Hi! Paris
Podcast enregistré le 21 janvier 2025.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Powered by Ausha 🚀