この続きです。 前回は文字化けの正体がわからないままだったので、どうにもできなかったが、 @yoshiro_mihiraさん、@mstk0531さんからのコメントを元に自分なりのフローに当てはめてみたところ、なんとか上手くいったので書き残しておく。 Alexaの買い物リストを流用したい人は最終的なアウトプットがそれぞれ別々だと思うのでデコード後の処理は適当に読みかえてもらえるとありがたい。 文字コード関連 @mstk0531さんのこの記事にてnode-redのnode-red-contrib-iconvで文字コード変換なら使用できる状態になることがわかった。 もじばけらったで文字コードを改めて調査。 お二人のいうように[ISO-8859-1]→[UTF-8]ということを確認。 そのうえでPythonで試行錯誤した結果、こんな感じに。 def lambda_handler(event, co
要旨 先日、はじめてAlexaのスキルを作成して公開しました。 音声応答の内容検討でちょっと困った点&解決した内容あったので共有します。 アプリの概要 観光イベントの問い合わせアプリ 入力の発話:検索条件(イベントのジャンル など) 例)(スキル名)で"アート"のイベントを教えて 音声+文字(Alexaアプリのカード通知)で応答 イベントが複数件該当した場合は、MAX5件目までを回答 イベント情報は外部APIからJSON形式で取得。JSONを加工して応答データを作成。 とりあえず作った音声応答 アプリケーション側で作成した応答データのイメージは以下の通りです イベント名:山本大と現代美術の肖像 開催場所:イベントスペースA.R.T アクセス:両国駅B5出口から出て両国公園に向かって徒歩5分 開催期間:2018/10/1~2018/12/13 開館時間:6:00~23:00 イベント名:フー
はじめに RaspberryPi上でAlexaで遊ぶために、USBスピーカーをデフォルトの出力にしたいなあと思って設定したメモ。Alexa自体はUSBスピーカーじゃなくても使えますが、デフォルトではイヤホンジャックの出力が優先になっているので、それを変えます。 環境 RaspberryPi3 Model B RS版 日本製 LOGICOOL ウェブカム HD画質 200万画素 C510 サンワサプライ USBスピーカー(ブラック) MM-SPU8BK TOSHIBA microSDHCカード MSDAR40N16G 全部買ってからだいぶ経っている古いものなので、手に入りにくいものもあるかもしれません。手元にUSBマイクがないのでWebカメラを使います。 RaspberryPiの設定 毎回毎回設定が面倒くさいので、巷にはすでにあると思いますが、自分でセットアップツールを作りました。使用方法も
概要 Amazon Echoに保育園の今日の給食を聞いてみます。 保育園でつかっているシステムではログイン後のカレンダー で給食のメニューがみえるようになっているのでそれをひっぱってきてしゃべってもらいます。 カスタムスキルの作りどころ 趣味で作るものとしては以下のようなものがよさそう ・スマホやアプリで確認できるけれどたびたび確認するほどでもない (でも、簡単に聞けるなら聞いておきたい) ・公式のカスタムスキルが提供されていない(提供されていればそれを入れればよい) ・普通にググってもでてこない(個人のログインが必要) 前までは月ごとに印刷されたメニューを配ってくれましたが 保育園でのシステム導入後配られなくなりました。 ログインして数ステップ遷移しないとみられないので、みないままの日が続いていました。 ログインしてスクレイピングするだけなので題材としてはお手頃と思います。 Alexaの
はじめに Amazon Echoに温度計の搭載が噂されていますが、一足お先にAlexaと温度計の組み合わせを体験してみます。温度計と湿度計が一体化されたセンサーを使って、Alexaに部屋の温度と湿度の両方をも教えてもらいます。センサーの呼び出しと、Alexaスキルのエンドポイントはラズパイで実装します。 使用環境 Amazon Echo Raspberry PI 3B 温湿度センサーモジュールキット(SHT31-DIS使用) 温湿度センサーは秋月電子通商で購入しました。(通販コード: K-12125) おおまかな作業のながれ センサーキットの組み立てとラズパイの配線 I2Cインターフェースの有効化 Pythonコードの実装 Webサーバーの外部公開 Alexaスキルの作成 ではやっていきます。 センサーキットの組み立て 組み立てと言ってもセンサー基盤にピンヘッダを取り付けるだけです。基盤に
最初に Actions on Google と Alexa Skill では、ユーザーが発話した内容から、都道府県名や市区町村名を抽出でき利用できますが、同じ発話内容でも、Google Assistant と Amazon Alexa を通してアプリ側に伝わってくる情報に違いがあるのでまとめておきます。なお、2018年9月時点で確認した内容になります。 Google Assistant (Dialogflow) -> Actions on Google の場合 仕様 Google Assistant (Dialogflow) の場合は、都道府県と市区町村の情報が、'admin-area', 'subadmin-area', 'city' の3つのプロパティに分かれて取得でき、'admin-area' には都道府県の情報が、'subadmin-area' には区の情報が、'city' には市
About 知ってる人には当たり前なんでしょうが、 Alexa Skills Kit (ASK) SDK for Node.js バージョン2 で非同期処理をしてから、 Alexa にレスポンスを返す方法。 問題点 v1 は、 this.emit のタイミングでレスポンスを返すので、非同期の最後で emit して動作していたのだが、 v2では handler で同期的に Response を return する必要がある。 ・・・と勝手に思っていたんだけど、 interface の定義を見ると Promise<Response> | Response となっていました。 export interface RequestHandler { canHandle(handlerInput: HandlerInput): Promise<boolean> | boolean; handle(han
Amazon echo を購入し、iftttトリガを使ってみたものの、なかなかうまく動いてくれず、 どうしたもんかと思ったときに、動作を確認した。 そもそも、Alexaはどう解釈したのか? 先にも後にも、結局Alexaがどう解釈したのかがわからないと進めない。 Alexaがどう聞き取ったのかは、Alexaアプリで確認できる。 1) Alexaアプリの右下ギアのアイコンをクリックして、設定を開く 2) Alexaアカウントの「履歴」を開く 3) 履歴の一覧を確認 Alexaが何と理解したか、記録されます。 4) さらに詳細に確認する場合は、実際の履歴行を開く 問題を切り分ける なんと理解したかがわかったところで問題を切り分けます。 1) こちらが意図した言葉にそもそもなっていない こればっかりはAmazonが精度を上げてくれることを待つしかありませんが、 自分でもできることとすれば、Alex
最短でAlexaにCSVを読み込ませる方法 需要があるかはわからないですが、AlexaにCSVを読み込ませることで いろいろなことができます。例えば、オープンデータにはCSVのデータが多いので ゴミのオープンデータを使ってゴミ出し情報のスキルを作ってみるなどいろんなことができます。 この記事の所要時間は約30分です。アカウントが作ってある場合やスキルの作り方を知っている場合は 10分もあればできると思います。 流れ アカウント作成(5分)→関数の作成(3分)→スキルの作成(3分)→LambdaとAlexaSkillの連携(3分) → Node.jsのインストール(10分) → ファイルのダウンロード(3分) → スキル実行 アカウント作成 AWSアカウント Alexaアカウント AWSアカウントで関数の作成 AWSのlambdaというサービスを選んで関数の作成をします。 関数の作成は設計図
2017年に Amazon Echo を手に入れた当初から いつも聴いているPodcastがEchoで聴けるようになった最高だけど、自分でSkill実装したら実現できるのかな? — snaka (@snaka) 2017年12月2日 と思っていて、この7月末ごろからAlexスキル開発はじめてやっとストアへの公開にこぎつけたのでその知見を少しづつ公開していこうと思う。1 システム構成 ポッドキャストを再生する Alexa スキルは以下のようなシステム構成となっている 当初は Lambda 1個でフィードの取得からそのフィードからURLを取り出して Echo にレスポンスを返すのまでやっていたが、ポッドキャストによってはフィードの読み込みに4~6秒程度待たされることがあり、無音状態で数秒待たされるとかなり不安になることがわかった。 そこで、フィードの取得とリクエストに対して音源のURLを返す部
「ポッドキャストを再生するAlexaスキルを公開したので知見を公開する」シリーズの最初はポリシーガイドラインについて。 システム構成等は予告編を参照 スキル公開の前に立ちはだかる壁 Alexa スキルを公開するには、まずスキル審査に合格しなければならないが、そこには大きな壁が存在する。 それは、Alexaスキルのポリシーガイドラインだが、第三者が公開しているポッドキャストを再生するスキルについては「1.商標、知的財産、およびブランド」に記載されている以下の要件をクリアしなければならない。 スキルに商標、知的財産、ブランドを法的に使用する権利がある場合、そのスキルの認定を申請する際に、これらを使用する許諾を得ていることを示し、明示的に証明する必要があります。開発者ポータルの公開ページのプライバシーとコンプライアンスの項目にあるテストの手順を使用してこの情報を提示してください。必要に応じて、知
■ノッチすらない真のベゼルレスのためにカメラユニットが飛び出す変態スマホ「OPPO Find X」レビュー、スマホ技術の最先端を体感してみた https://gigazine.net/news/20180904-oppo-find-x/ 開発機としてベゼルレスに近い端末を触ることはあるけれど、画面が大きいメリットよりも操作面でのデメリットが多いので正直良い印象が無い。 この端末も色々と操作面では不都合なことが多そうだし、ベゼルレスが増えてる流れとニーズは一致しているのだろうか・・・? ■どこでもタイピングできる! ウェアラブルなキーボード「TAP」が斬新 https://techable.jp/archives/82744 パッと見は良いじゃんと思ったんだけど、文字ごとにアクションが変わるってのはすげぇ大変なんじゃ・・・。 ■言語表現に関して 世界の見方が変わる5つの言語について http
AlexaからLINE Botに通知してみる(ASK+Messaging API+LINEログイン+Social API)lambdaaskAlexaLineLoginMessagingAPI はじめに Clovaのいいところとして、LINE Botと(Messaging API)の連携があります。 ただ、開発者的にもユーザー的にも一つ手間がかかりますがAlexa、GoogleAssistantでもLINE Botに通知を送ることはできます。 今回はAlexaを使って、その実装方法をみていきます。 この記事では、Alexaのスキル開発方法を一からは書いていません。 簡単なAlexaスキルを開発したことがある方を対象としています。 仕組み 以下のサービスを使います ASK(Alexaスキル) LINEログイン(Alexaのアカウントリンクに使用) MessagingAPI(LINE Bot)
Alexaスキル開発していますか? 自分の実装したとおりにAlexa様が話してくれるのはとても楽しいのですが、Webやモバイルアプリとはまた異なるインターフェイスなこともあり、開発環境にはやや面倒臭さを感じる今日このごろです。 スキルをLambdaへデプロイ後、動作確認のためにalexa developer consoleから「テスト」を実行していることと思います。 ウェイクワードを発話していざ実装したインテントリクエストを起動すると、 「スキルからの応答に問題があります」 無慈悲なこの文言が帰ってきます。 皆さんはこんなときどうしていますか? むしろ教えてほしいくらいなのですが、自分なりの調査方法を載せておきます。 1. Cloud9でデバッグする これが一番です。 利用料が多少かかりますが、些末なものです。 AWS Cloud9 料金 (ちなみにAWS Cloud9は東京リージョンでは
Alexa (Amazon echo)からツイッターに投稿.API Gateway + LambdaでOAuth認証Node.jsTwitterOAuthlambdaAlexa Alexaのスキルからツイッターに投稿 Amazon echo(以下アレクサ)のスキルからツイッターに投稿するサンプルプログラムを作成しました. 投稿するには次の設定と実装が必要です.本記事ではこれらの一連の流れを紹介したいと思います. ツイッターの認証(OAuth認証) アレクサのアカウントリンクにはOAuth2.0認証が必要です.しかしながらツイッターはOAuth1.0認証です.この違いを吸収するためにトンネリングする仕組みを作ります.今回はAPI GatewayとAWS Lambdaを使用したサーバレスアーキテクチャで実装します. アカウントリンクの設定 アレクサスキルから外部のアカウント(Twitterやf
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く