AssistantJS läuft überall

Absolvent der FH Münster entwickelt eine systemübergreifende Sprachsteuerung für Finanzdienstleister


Münster (6. Juni 2018). Alexa, Siri, Cortana, Bixby – immer mehr Sprachassistenten finden wie selbstverständlich den Weg in unseren Alltag. Wer als Unternehmen dort Inhalte oder Angebote zur Verfügung stellen will, musste diese bislang separat für die unterschiedlichen Systeme programmieren. Ähnlich wie bei den Apps fürs Smartphone. „Das ist ein Problem, weil das bei Unternehmen hohe Kosten verursacht“, sagt Antonius Ostermann, der Wirtschaftsinformatik an der FH Münster studiert hat. Die Idee, die er in seiner Masterarbeit bei Web Computing in Münster anpackte: Sprachanwendungen entwickeln, die mit allen Sprachassistenten kompatibel sind – quasi die Basis aus einem Guss, in die verschiedene Sprachassistenten konfiguriert werden können. Zunächst sollte das für Finanzdienstleister gehen, die Online-Banking per Sprachsteuerung anbieten möchten. Das war der Startschuss für AssistantJS.

„Es geht darum, viele Assistenten auf eine Schnittstelle zu vereinen“, erklärt Ostermann. „Und das ergibt auch Sinn, weil immer mehr Sprachassistenten entwickelt werden und man das Feld nicht mehr unter Kontrolle hat.“ Das von Ostermann entwickelte Framework AssistantJS – das „JS“ steht für die Programmiersprache JavaScript – setzt dabei auf einen so genannten Zustandsautomaten. Der Zustandsautomat entscheidet, was mit einer Aussage, die ein Nutzer dem Sprachassistenten gegenüber äußert, passieren soll. Dabei berücksichtigt er den Kontext und den vorherigen Gesprächsfluss. Eine Aussage – zum Beispiel „Ja!“ – kann mehrere Bedeutungen haben, und verlangt dementsprechend nach jeweils unterschiedlichen Antworten oder Handlungen. Die Anwendungsentwickler programmieren also die Reaktionen auf die jeweiligen Intentionen in Abhängigkeit vom bisherigen Dialog, und behalten so die Menge der zu behandelnden Nutzer-Aussagen unter Kontrolle.

„Das Besondere ist, dass der Zustandsautomat von AssistantJS allgemeingültig ist, er kann also beispielsweise sowohl an die Schnittstellen von Alexa als auch an denen vom Google Assistant angebunden werden“, erklärt Ostermann. Neben technischem Knowhow ist auch ein gutes sprachliches Verständnis notwendig, um mit AssistantJS Sprachanwendungen zu entwickeln.

Jetzt, eineinhalb Jahre nach der Idee, arbeitet Ostermann weiterhin mit Hochdruck an AssistantJS. Er merzt kleine Probleme aus, die sich aus der Anwendung ergeben, und plant zukünftige Erweiterungen des Frameworks. Bei Web Computing arbeitet er schon seit seiner Bachelorthesis. „Unsere Software kommt sehr gut an“, sagt der Entwickler. Und er sieht für die Zukunft große Anwendungspotenziale von Sprachassistenten – vor allem bei Schnittstellen. „Grafische Oberflächen lassen sich durch Sprachsteuerung ergänzen oder gar komplett ohne Hände bedienen – das ist zum Beispiel für Arbeiten in Lagerhallen oder Werkstätten interessant. Auch ältere Menschen, die nicht mehr so technikaffin sind, kommen mit ihrer Stimme schneller ans Ziel.“

Die Entwicklung von Sprachdienstleistungen mit AssistantJS macht mittlerweile einen kompletten Unternehmenszweig bei Web Computing aus. „Wir sind die ersten, die den Schalter umgelegt haben und systemübergreifend entwickeln, das verschafft uns Wettbewerbsvorteile“, sagt Sebastian Zimmermann, Geschäftsführer von Web Computing. „Große Pharmaunternehmen und Finanzdienstleister gehören zu unseren Kunden, darunter auch einige DAX-Konzerne.“


Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Weitere Informationen und die Möglichkeit zum Widerruf finden Sie in unserer Datenschutzerklärung.
Seite drucken