hmmh News | Multiple Interfaces – Entwicklung von Skills für Echo Show

Multiple Interfaces – Entwicklung von Skills für Echo Show

Für einen hohen Informationsgehalt sind reine Voice Interfaces ungeeignet. Deshalb verknüpft Echo Show Voice mit Graphical Interface. Wir zeigen, wie sich die Skillentwicklung durch neue Features geändert hat und was es zu beachten gibt.

Voice Interfaces sind klar im Trend, haben aber ihre Tücken: Die Informationsvermittlung. Naturgemäß hat der Mensch eine selektive und begrenzte Auffassungsgabe. So sind bisherige Voice Interfaces für einen hohen Informationsgehalt eher ungeeignet. Das hat auch Amazon erkannt und vor wenigen Wochen einen Nachfolger des Amazon Echo in den USA released. Das neue Amazon Echo Show ist das Resultat aus den Erfahrungen und Learnings, die Amazon und die Entwicklercommunity in den letzten Monaten bei der Skillentwicklung gemacht haben. Amazon Echo Show verknüpft nun Voice Interface mit Graphical Interface und kompensiert somit die genannten Probleme. Wie sich die Skillentwicklung durch die neuen Features ändert und was zu beachten ist sehen wir uns anhand eines Beispiels genauer ansehen.

Herausforderung: Fehlende Dokumentation

Wer sich in die Entwicklung von Skills unter Java mit dem neuen Echo Show stürzen möchte, wird zunächst einmal sehr irritiert sein. Es gibt kaum Dokumentation, keine Beispiele. Lediglich die Anmerkung im Committext des letzten Frameworkreleases gibt Aufschluss darüber, dass mit der Version 1.4 eine grundsätzliche Unterstützung von Echo Show vorhanden sein soll. Mit ein wenig Analyse des Frameworkcodes sind wir jedoch auch ohne Dokumentation dazu in der Lage Skill mit Displayunterstützung zu implementieren.

Die Aufgabe: Skillentwicklung veranschaulichen

Um die Skillentwicklung zu veranschaulichen ziehen wir uns eine einfache Aufgabe heran. Wir wollen einen Skill entwickeln, mit dem man Würfeln kann. Aber nicht nur das: Man kann sich auch noch aussuchen wieviele Seiten der Würfel haben soll. Das Display wollen wir zum einen zur Selektion des Würfels nutzen, zum anderen um das gewürfelte Ergebnis visuell darzustellen. Öffnen wir den Skill wollen wir gleich mit dem Auswahlscreen begrüßt werden. Selektieren wir einen Würfel, soll es ein kurzes Sprach- und Displayfeedback geben. Anschließend können wir dem Skill sagen, dass er würfeln oder die Würfelauswahl erneut öffnen soll.

Vorbereitung

Die Entwicklung für Echo Show ist zurzeit nur für den US-Markt möglich. Wenn wir also einen neuen Skill in der Amazon Developer Konsole anlegen möchten, müssen wir English (U.S.) als Sprache wählen. Neu ist nun, dass unter Global Fields ein Feld „Render Template“ zu sehen ist. Dieses müssen wir aktivieren, damit wir die Display-Unterstützung bekommen (siehe Abbildung 1).