W3C standardisiert Sprachplattform und empfiehlt SMIL 2.1
Das Standardisierungsgremium World Wide Web Consortium strengt sich an, um Sprachfunktionen breiter aufzustellen.
Das Standardisierungsgremium World Wide Web Consortium (W3C) strengt sich an, um Sprachfunktionen breiter aufzustellen. Erweiterungen zentraler Komponenten des Speech Interface Framework sollen die Basisfunktionen ausbauen, die die vom W3C empfohlene ‘Speech Synthesis Markup Language’ (SSML) einmal haben soll. Damit wird die Sprache ‘VoiceXML’ in der Version 3.0 ausgestattet.
Sie soll bei der Verwendung von künstlich erzeugter natürlicher Sprache zum Einsatz kommen, beispielsweise bei Web-Anwendungen und für die Kommunikation im Online-Shopping. Die Erweiterungen geben den Herstellern bessere – da standardisiert – Werkzeuge in die Hand, um Stimmmodulationen, Aussprache, Sprechtempo und Höhen anzupassen. Jetzt sind dabei auch Sprachen wie Mandarin-Chinesisch oder Koreanisch bedacht worden.
Eine zusätzliche Erweiterung ist die bessere Spracherkennung. Sie soll sicherer werden und beispielsweise als biometrisches Muster die sichere, verbale Passworteingabe erlauben. Die W3C-Arbeitskreise hoffen, dass sich eine ganze Reihe neuer Anwendungen aus der zunehmenden Standardisierung von VoiceXML ergibt. Doch die Standardisierung ist komplex und sie geht weiter, und so bitten die Entwickler um mehr Mithilfe aus Industrie- und Forschungskreisen.
Etwas einfacher hatten sie es augenscheinlich bei der Akzeptanz eines völlig anderen Stoffes: die ‘Synchronized Mulitmedia Integration Language’ (SMIL) ist in der Version 2.1 als so genannte Recommendation (Empfehlung) des W3C – also dicht vor der echten Standardisierung – ausgegeben worden. Mit SMIL 2.1 sollen Präsentationen und die Ausgabe von multimedial aufbereiteten Daten im mobilen Web verbessert werden können. Die eingesetzte Modularität soll vor allem mehr wiederverwendbare Bauteile erlauben und das Anwendungsdesign so effektiver machen.