Der Supercomputer "Dr. Watson", der in der letzten Zeit für Schlagzeilen gesorgt hat, weil er bei einer Quizshow menschliche Bewerber mit seinem Wissen schlagen konnte, soll demnächst auch im medizinischen Umfeld eingesetzt werden, und zwar dabei, Medizinern bei der Diagnose zu helfen. Dass dieses Projekt recht umfangreich sein dürfte, steht außer Zweifel, insbesondere weil die Aufbereitung der Daten ein großes Problem darstellt. Viele Daten liegen nur als Sprachnotizen oder Videos vor, aus denen es sehr viel schwerer ist, Information zu extrahieren als aus geschriebenen Texten.
Weshalb ich das hier berichte? Weil Nuance mit seinen Sprachtechnologien in dem Projekt involviert ist. Spracherkennung wird sowohl für die Auswertung dieser Texte als auch später für die Abfrage eine wesentliche Rolle spielen.
Eine verständliche Erklärung, wie die Maschine funktioniert und "denkt", das heißt Informationen aus wird, findet sich hier. Die genannten Beispiele zeigen, dass tatsächlich eine Vielzahl an Informationen ausgewertet miteinander verglichen wird; außerdem dass der Computer in der Lage ist, Risiken einzuschätzen. Die Spracherkennung ist allerdings bisher noch nicht implementiert; die Fragen wurden ganz herkömmlich über die Tastatur eingegeben.
Wenn das erst einmal so weit ist, sind wir wieder einen Schritt weiter auf dem Weg zum Star Trek-Rechner. Bis dahin nutze ich fröhlich weiter die Suchfunktion meines Dragon NaturallySpeaking und frage z.B.: "durchsuche das Web nach Dr. Watson". Das Ergebnis zeigt allerdings, dass Google noch einen Schritt hinter Dr. Watson zurück ist – hier erfährt man etwas über den Helfer von Sherlock Holmes und einen gleichnamigen Windows-Dienst, der Informationen über den Computer sammelt, wenn in einer Anwendung ein Fehler aufgetreten ist.
Keine Kommentare:
Kommentar veröffentlichen