Interdisziplinäres Forschungsprojekt lernt Computern Wienerisch

Kommunikation mit Sprache statt Tasten - künstliche Stimmen sprechen im Wiener Dialekt

Wien (OTS) - Ein vom WWTF (Wiener Wissenschafts-, Forschungs- und Technologiefonds) gefördertes, interdisziplinäres Forschungsprojekt lernt Computern verschiedene Wiener Dialekte. Im Rahmen des Projekts sollten effiziente Methoden gefunden werden, um synthetische Stimmen für Sprachen zu entwickeln, die Varianten einer anderen Sprache sind. Zwei Jahre brauchten Forscher des ftw (Forschungszentrum für Telekommunikation Wien), um einen Sprachsynthesizer zu entwickeln, der verschiedene Wiener Dialekte beherrscht. Projektpartner waren unter anderem das CSTR (Centre for Speech Technology Research) in Edinburgh, das österreichische Institut für Schallforschung (ARI) sowie das Österreichische Forschungsinstitut für Artificial Intelligence (ÖFAI). Insgesamt arbeiteten sieben Wissenschafter an dem Sprachsynthesizer. "Im Zuge des Wiener Konjunktur- und Beschäftigungspakets werden rund 60,5 Millionen Euro in Forschung und Entwicklung investiert, die solch innovative Projekte ermöglichen", freute sich GR Sybille Straubinger (SPÖ) im Zuge der Projektpräsentation heute, Donnerstag.

Verschiedene Dialektvarianten mit prominenten Sprechern

Die Idee von sprachgesteuerter Kommunikation ist nicht neu, immer wichtiger wird aber die Natürlichkeit in der Interaktion. "Dafür brauchen wir eine qualitativ hochwertige Sprachsynthese für verschiedene Sprachen und deren Varianten", so Projektleiter Dr. Michael Pucher. Drei Varianten des Wienerischen wurden neben Österreichischem Deutsch erzeugt: Wiener Dialekt ("Wienerisch"), Wiener Umgangssprache ("Schönbrunner Deutsch") und Wiener Jugendsprache. Als "Stimmen" konnten Ö1-Sprecher Stephan Pokorny, Schauspieler Hanno Pöschl und Schauspielerin Helma Gautier gewonnen werden. Die Wiener Jugendsprache verkörpert die Schülerin Julia Österreicher, die via Casting ausgewählt wurde.

Die Vorgangsweise ist aufwändig, aber das Ergebnis überzeugt. Viele aufgenommene "Probestücke" werden in Einzelteile zerlegt und via Synthesizer als gesprochene Sprache neu zusammengefügt. Der eingegebene Text wird dann "vorgelesen". Während des Projekts entwickelte sich zudem die Arbeit mit der "Adaptiven Sprachsynthese", die einen kontinuierlichen Übergang zwischen den Varianten ermöglicht.

Anwendungsbereiche

Praktisch umgesetzt werden sollen die Forschungsergebnisse in einem mobilen Bezirksinformationssystem. Laut Projektteam würde sich die Technologie zudem für Bereiche wie Tourismus, Kultur oder Bildung anbieten. Neben klassischen Screenreadern können sich die Entwickler auch Services wie einen interaktiven Restaurantführer mit Sprachsteuerung vorstellen. Zu diesem Projekt gibt es bereits eine Demo-Version, die unter der Wiener Nummer 8904 055 7051 ausprobiert werden kann. Besonderheit daran: Auf zu lange Sprechpausen reagiert das Programm aktiv. Hat man zum Beispiel die Variante "Karl" gewählt und lässt sich zu viel Zeit mit der Spracheingabe, schimpft die Stimme von Hanno Pöschl "Heast Nudlaug".

o Mehr Informationen zum Projekt unter http://www.ftw.at/ftw/research/projects/ProjekteFolder/U-2

(Schluss) kad

Rückfragen & Kontakt:

PID-Rathauskorrespondenz:
www.wien.at/vtx/vtx-rk-xlink/
Mag. Christina Philippi
Telefon: 01 505 28 30-15,
E-Mail: philippi@ftw.at

OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS | NRK0033