Kunden-News

Wissenschaft

22. Juni 2009

Intelligenter DJ aus der Grundlagenforschung legt auf

Ein vom Wissenschaftsfonds FWF gefördertes Projekt schafft den Sprung ins Geschäftsregal und haucht einem digitalen Audiosystem musikalische Intelligenz ein. Möglich macht dies ein Computeralgorithmus, der erstmals automatisch individuelle Musiklisten direkt in einem HiFi-Gerät erstellen kann. Der Algorithmus erkennt bestimmte Musikeigenschaften, wie etwa den Rhythmus, und vergleicht gespeicherte Audiodateien auf ihre Ähnlichkeit. Die Entwicklung des dahinter liegenden Know-hows wurde bereits frühzeitig vom FWF gefördert – jetzt steckt es in einer neuen Musikanlage von Bang & Olufsen.

Endloser Musikgenuss ganz nach dem individuellen Geschmack ohne vorhergehendes Erstellen einer Playlist – das klingt nach Zukunftsmusik. Ist es aber nicht. Ein neuer Computer-Algorithmus macht genau das jetzt möglich. Das wissenschaftliche Know-how dazu lieferte Prof. Gerhard Widmer, Vorstand des Instituts für Computational Perception der Johannes Kepler Universität Linz und Abteilungsleiter am Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI) in Wien. Prof. Widmer und sein Team erkannten bereits vor Jahren, dass der rapide Anstieg der Nutzung digitaler Musikdateien neue Computermethoden notwendig macht. Ein Ergebnis ihrer Forschungsarbeit ist jetzt im Fachhandel erhältlich und bildet das Herzstück des digitalen Audiosystems BeoSound 5 von Bang & Olufsen: der Computer-Algorithmus MOTS.

MOTS übernimmt die Rolle eines persönlichen DJs und zeigt dabei musikalische Intelligenz. Er analysiert Audiodateien und extrahiert aus ihnen sogenannte „Features“, die er verwendet, um die Ähnlichkeit von Musikstücken zu berechnen. Abhängig von der ausgewählten Audiodatei findet MOTS selbstständig ähnliche Dateien und wird damit seinem Namen vollkommen gerecht: MOTS steht für „More Of The Same“.

„Algo-Rhythmus“

Damit MOTS die Ähnlichkeit von Musikstücken berechnen kann, bedarf es ihrer Übertragung in die Mathematik. Dazu werden sogenannte Features aus dem Audiosignal berechnet, die ein Musikstück charakterisieren. In die Charakterisierung fließen mit Rhythmus und Klang (also Frequenzmuster, Klangfarbe etc.) Aspekte ein, die für die menschliche Wahrnehmung von Musik wesentlich sind. Aus diesen Features werden dann statistische Modelle berechnet, die das Musikstück repräsentieren und im Vergleich zur Original-Audiodatei sehr

kompakt sind. Dazu Projektleiter Prof. Widmer: „Das Modell einer 40-Megabyte-Musikdatei beläuft sich auf eine Größe von nur 800 Zahlen oder 3 Kilobyte. Für den Vergleich verschiedener Lieder verwendet MOTS dann diese reduzierten Informationen, damit wird die Ähnlichkeitsberechnung erst möglich.“

Die Wahl, welches Stück einem anderen am ähnlichsten ist, trifft MOTS mithilfe statistischer Methoden – und das eben nicht nur im experimentellen Setting. MOTS bildet die Schlüsseltechnologie der ersten Stereoanlage mit musikalischer Intelligenz und gibt sich äußerst benutzerfreundlich. Die intelligente Erstellung einer auf den jeweiligen Benutzer zugeschnittenen Playlist funktioniert mit allen gängigen Formaten, wie etwa MP3, WMA und AAC.

Grundlagenforschung rockt

Der Grundstein für MOTS wurde bereits 1998 gelegt, als der damals 37-jährige Gerhard Widmer den renommierten START-Preis für herausragende junge Wissenschafter erhielt. Jahre später unterstützte der FWF die Forschung Prof. Widmers im Rahmen eines Translational-Research-Projektes, in dem es um die Weiterentwicklung von Anwendungsaspekten seiner Grundlagenforschung ging. Auch der WWTF (Wiener Wissenschafts-, Forschungs- und Technologiefonds) trug zum Erfolg des Forschungsvorhabens bei. Dazu Prof. Widmer: „Ich denke, dass die Entwicklungsgeschichte von MOTS ein wunderbares Beispiel dafür ist, wie die Förderung von Grundlagenforschung relativ plötzlich zu sehr spannenden Anwendungen führen kann.“

Die Arbeit geht dem Team um Prof. Widmer auch nach diesem Erfolg nicht aus. Weitere ambitionierte Ziele des Forscherteams sind die Visualisierung großer Musiksammlungen, die Entwicklung einer computergestützten Ausdrucks-Analyse, die automatische Gewinnung musikrelevanter Informationen aus dem Internet und Computer, die in Echtzeit Musik verfolgen können. Man darf gespannt sein, welche neuen Technologien in Zukunft, dank Unterstützung des FWF, den Umgang mit digitaler Musik erleichtern werden.

Bild und Text ab Montag, 22. Juni 2009, 09.00 Uhr MEZ verfügbar unter: http://www.fwf.ac.at/de/public_relations/press/pv200906-de.html

Wissenschaftlicher Kontakt: Prof. Gerhard Widmer
Johannes Kepler Universität Linz Institut für Computational Perception

Altenberger Straße 69 4040 Linz
T +43 / 732 / 2468 – 1510 E gerhard.widmer@jku.at

Der Wissenschaftsfonds FWF: Mag. Stefan Bernhardt
Haus der Forschung Sensengasse 1

1090 Wien
T +43 / 1 / 505 67 40 – 8111 E stefan.bernhardt@fwf.ac.at

Redaktion & Aussendung: PR&D – Public Relations für Forschung & Bildung Campus Vienna Biocenter 2 1030 Wien

T +43 / 1 / 505 70 44 E contact@prd.at
W http://www.prd.at

Wien, 22. Juni 2009