www.ethlife.ethz.ch |
Rubrik: News Beat Pfister zum Forschungsstand sprachverarbeitender Computersysteme Gespräche mit dem Computer |
Published: 26.04.2005 06:00 Modified: 26.04.2005 17:20 |
|||||||||||
(sb) Einblicke in die Spracherkennung und Sprachsynthese – wie Computer also zuhören und sprechen können – gewährte Projektleiter Beat Pfister vom Institut für Technische Informatik und Kommunikationsnetze am vergangenen Mittwochabend (1) . Im Rahmen der Showcase-Event-Reihe von ETH World skizzierte er Ansätze für die Weiterentwicklung sprachverarbeitender Systeme auf einer interdisziplinären Basis (2) . Wenn wir zuhören, dann empfangen wir nicht bloss ein Sprachsignal. Aus der gesprochenen Sprache erkennen wir etwa einen Dialekt, das Geschlecht oder den gesundheitlichen Zustand. Zudem ist die gesprochene Sprache mit Emotionen unterlegt und durch die Raumakustik und weitere Störgeräusche verzerrt. Für die Forschung stellen diese begleitenden akustischen Merkmale ein Problem dar. Unklar ist, wo ein Laut im Sprachsignal mit welcher Länge vorkommt. Dieses Problem versuchte die Forschung mit Hilfe der Wahrscheinlichkeitstheorie auf der Grundlage lexikalischen Wissens zu lösen. Trefferquote um 50 Prozent verbessertMit der gestiegenen Rechenleistung der Computer in den 80er und 90er Jahren erlebte die Spracherkennung der englischen Sprache eine veritable Blüte. Nicht so im deutschen Sprachraum. Die deutsche Sprache erwies sich aufgrund ihrer Komplexität solchen Ansätzen weniger zugänglich. Das Forschungsteam um Pfister entschied sich daher für einen interdisziplinären Ansatz, der auf das Wissen der Linguistik zurückgreift.
Obwohl die Interdisziplinarität zahlreiche Probleme aufwirft, wie Pfister betont, war es dennoch möglich, im Vergleich zu rein statistischen Verfahren die Trefferquote in der Spracherkennung um rund 50 Prozent zu erhöhen. Gleiches Schriftbild, andere LautfolgeAnsatzweise Spektakuläres hatte Pfister auch im Gebiet der Sprachsynthese vorzuweisen. So ist die Entwicklung inzwischen soweit, dass der Computer Sätze mit Wörtern aus verschiedenen Sprachen korrekt ausspricht.Beispielsweise erkennt Pfisters Sprachsystem, wann das Adjektiv „human“ englisch und wann es deutsch ausgesprochen wird. Zurückhaltende PrognoseAus Pfisters Forschungsprojekt entstand inzwischen eine Spinoff Firma, die sich mit der Entwicklung erster kommerzieller Applikationen befasst. Interesse an der Entwicklung im Gebiet der Sprachverarbeitung zeigen aber auch Microsoft und Sunrise. Microsoft beobachtet die Entwicklungen an der ETH aufmerksam und befasst sich im Hauptquartier in Redmond selbst mit der Entwicklung sprachverarbeitender Systeme. Aus Sicht eines Vertreters von Sunrise ist es jedoch noch zu früh, aus den Erkenntnissen der Sprachverarbeitung Schlüsse für mögliche Entwicklungen zu ziehen. Sowohl Microsoft wie Sunrise attestieren aber sprachverarbeitenden Systemen ein hohes Potential. Vorsichtig bezüglich der Prognose über mögliche Einsatzfelder in der Zukunft zeigte sich der Referent selbst. Er geht davon aus, dass sich die Spracherkennung insbesondere in kleinen Einsatzfeldern durchsetzen wird. Ein Beispiel dazu ist etwa die Bedienung des GPS-Navigationsgerätes im Auto. Footnotes:
|