In mehreren Artikeln wird in den letzten Tagen darüber berichtet, wo
Spracherkennung in der nächsten Zeit hinführen kann. Professionelle
Diktiersysteme werden sicherlich ein mächtiger Bestandteil bleiben,
jedoch geht die Entwicklung immer weiter in die Richtung,
Spracherkennung in den Alltag zu integrieren. Das macht Sinn: in dem
Maße, wo immer mehr Geräte in Wirklichkeit kleine Computer sind, ist
Sprache zumindest in der Theorie die natürlichste und einfachste
Eingabemöglichkeit. Wer schon einmal im fahrenden Auto versucht hat,
seinen Bordcomputer über den Touchpad zu bedienen, wird bestätigen
können, dass er nicht nur de jure, sondern auch de facto eine kriminelle
Handlung begeht – da wäre es viel einfacher, mit einer klaren Ansage
das zu erreichen, was man erreichen möchte.
Über die neuesten Entwicklungen aus dem Hause Nuance berichtet das Hamburger Abendblatt:
http://www.abendblatt.de/wirtschaft/article119679867/Wo-Maschinen-die-menschliche-Sprache-erlernen.html
PCWorld geht auf die Konzeption eines digitalen Assistenten ein, der eine eigene Persönlichkeit entwickelt:
http://www.pcworld.com/article/2046694/how-nuance-is-building-a-digital-persona-that-loves-you.html
Für
die New York Times rezensiert der Technikkolumnist David Pogue die
Spracheingabe für iPhone und Android (Anm.: die Spracheingabe für
Android funktioniert im Moment auf englisch noch sehr viel besser als
auf deutsch):
http://www.nytimes.com/2013/08/22/technology/personaltech/android-vs-siri-the-voice-recognition-sequel.html
Ein recht reißerischer ARD-Bericht zeigt
schließlich noch eine ganz andere Einsatzmöglichkeit: Spracherkennung,
die zur Überwachung von Telefongesprächen eingesetzt wird. Ohne in
Zeiten des NSA-Skandals diese Überwachung verharmlosen zu wollen, können
wir davon ausgehen, dass nicht sämtliche Telefongespräche auf diese
Weise analysiert werden. Wenn allerdings eine Verbindung erstmal in das
Visier der Ermittler gerückt ist, muss nicht mehr unbedingt ein Mensch
mithören.