Back to blog home

Inviqa, talk to me

Hallo Inviqa - Hands on mit Amazon Echo

Mitte Mai war Memo Döring von Amazon in Berlin, um die Entwicklung für Amazon Alexa vorzustellen. Er wollte mit seinem Besuch auch klarmachen, dass die Fixierung auf den Bildschirm als Ausgabemedium der Vergangenheit angehören sollte. Seit es sprachgesteuerte Schnittstellen wie Amazon Echo und Google Home gibt, bieten sich ganz neue Möglichkeiten, um mit Kunden zu interagieren.

Ich baue mir eine eigene Alexa

Wie kann man also z.B. Amazon Echo’s Alexa einen neuen Skill beibringen? Am einfachsten ist es, Amazon’s Lambda zu benutzen, der es einem ermöglicht, eine “serverlose” App laufen zu lassen. Diese Anwendungen laufen nur, wenn sie benötigt werden, bzw. eine Anfrage eingeht. Man wählt die gewünschte Laufzeitumgebung (im Moment unterstützt Lambda Java, C#, Node.js und Python) und lädt seine Anwendung hoch. Den Rest erledigt Amazon. Wenn die Anwendung auf Lambda existiert, kann man einfach einen Alexa-Dienst auf Amazons-Entwicklerplattform anlegen und ihn mit der Anwendung verbinden. Dazu dient der Ressource Name.

In der Alexa-Entwicklerkonsole muss man die Formulierungen hinterlegen, auf die Alexa reagieren soll. Wenn das erledigt ist, schickt man das auf Knopfdruck an Amazons Natural Language Processing Service, welcher darauf ein Modell erstellt, welches für die richtigen Reaktionen auf den Input, welcher z.B. vom Echo Dot kommt, zuständig ist. Wenn der Service komplett eingerichtet ist, muss die Alexa-Service-ID in der Lambda-Anwendung angepasst werden, was möglicherweise eine Neukompilierung und ein erneutes Hochladen erforderlich macht. Falls es sich um Node.js handelt, kann man seine Anwendung direkt online modifizieren.

 

 

Stimmverarbeitung

Wenn ein Nutzer mit Ihrer Anwendung spricht, sendet Ihr Alexa-Service einen JSON-Request an die Lambda-Anwendung. Dieser JSON-Request enthält alle Optionen, die der Nutzer gesprochen hat. Beispiel: Wenn der Nutzer Alexa nach den letzten fünf Blogposts fragt, wird der Wert 5 im JSON-Objekt enthalten sein. Ihre Lambda-Anwendung gibt dann eine JSON-Response zurück, welche von Alexa gesprochen werden kann. Man kann in der JSON-Antwort eine Vielzahl von Dingen definieren - beispielsweise auch individuelle Aussprachen (unter Verwendung des International Phonetic Alphabet),  oder individuelle Sound-Files. In unserer Inviqa-Skill haben wir beispielsweise für die relevanten Firmennamen wie folgt definiert:

<phoneme alphabet="ipa" ph=”ɪnviːkə”>Inviqa</phoneme>

<phoneme alphabet=”ipa” ph= "spraɪkə">Spryker</phoneme>

Alexa @ Inviqa Berlin

Selbstverständlich kann über diesen Weg jeden beliebigen Dienst, der im Internet verfügbar ist, aufrufen werden. Ob es um den Abruf von E-Mails geht, das Auslösen von Transaktionen in anderen Anwendungen, oder beliebige andere Interaktionen.

Um Ihnen eine Vorstellung davon zu geben, wie schnell man erste Resultat sehen kann, haben wir hier im Inviqa Berlin-Büro an einem Nachmittag einen Skill entwickelt, der Neuigkeiten aus unserem Inviqa-Blog vorliest.

Was für Interaktionen mit Alexa können Sie sich vorstellen? Was würde Ihre Kunden begeistern? Lassen Sie es uns wissen und gern gemeinsam Möglichkeiten erkunden.