Computer werden ständig schneller und die schnelle Entwicklung von Audio-Interface and Audio-Transmissions Technologien haben zu einem neuen Zeitalter von Audio-Systemen geführt, die mittels Surround Lautsprechern räumliche Schallerlebnisse reproduzieren können.

Viele dieser Anwendungen benötigen eine genaue, effiziente und robuste Darstellung des Schalls in der Raum-Zeit-Frequenzebene. Das gemeinesame Projekt von ISF und IRCAM verbindet die mathematischen Konzepte, die am ARI verwendet und entwickelt werden mit der profunden Kenntnis in Signalverarbeitung in Echtzeit am IRCAM. Das Projekt versucht grundlegende Fragen in beiden Forschungsfeldern zu beantworten und hat als Ziel die Entwicklung von verbesserten Methoden für die oben erwähnten Anwendungen.

Spezielle Fragen, die in diesem Projekt geklärt werden sollen, sind:

  • Kann mittels Wavelets und Frames eine effiziente Raum-Zeit-Frequenz Darstellung von Wellenfeldern gefunden werden, die robuster als derzeitig existente Methoden sind?
  • Ist es möglich, auf Frames basierenden Methoden an ein (sphärisches) Lautsprecher-, bzw. Mikrophonarray mit vorgegeben Anordnung von Lautsprechen, bzw. Mikrophonen anzupassen (z.B. das 64 Kanal Array am IRCAM)
  • Wie kann das akustische Feld auf einer Kugel mit Frames dargestellt werden, um bessere Raum-Zeit-Frequenz Darstellung des akustischen Felds an bestimmten Teilen der Kugel zu erhalten?
  • Ist es möglich, diese Raum-Zeit-Frequenz Darstellung in mehreren Auflösungen für Raumaufnahmen mittles sphärischen Mehrkanal-Mikrophonarray zu verwenden (z.B. um eine höhere räumliche Auflösung von frühen Raumreflexionen zu erreichen)?