こんにちは、きんくまです。
今回はSiriさんです。
iPhoneのSiriをよく使ってます。
何に使っているかというと、
・タイマー
・天気予報
・カーナビ
が主なところです。
使っていて、良い点や悪い点、どうしてそれが良いのかなどを考えたのでメモしておきます。
特に良く使っているのがタイマーです。
昼飯に、ラーメンとかパスタとかゆでたり、レトルトのカレーをあっためたりするんですけど、
そのときによく使っております。
後で、通常の手順と比較するために、Siriの手順を書きます。
1. ホームボタン長押し
2. ピピっとなって音声入力受付開始
3. 「タイマーを○分にセット」と言う
4. サーバー側で通信して、音声の解析が行われて、結果が返ってくる
5. Siriが「○分にセットしましたカウントダウンを開始します」といって、タイマーがスタートする
という感じです。ここで、ユーザーが行っているのは1と3の部分です。
ボタンを押して命令を話すという2点です。
通常の手順を書いてみます
1. ホームスクリーンから時計アプリアイコンを探す
2. アプリアイコンを押してアプリ起動
3. タイマータブを選択
4. ドラムから○分を選択
5. 開始ボタンを押す
ユーザーが行っているのは全ての手順です。
この間、画面をタッチして、画面が切り替わる視覚的なフィードバックを確認しつつ、次の手順にすすむということをしています。
何が言いたいかといいますと、自分の命令がきちんと理解さえすれば、Siriは早くて楽にコンピュータにその命令を行わせることができるということです。
Siriは音声入力したものを解析し、命令を実行しつつ、音声読み上げによる音声のフィードバック(画面の切り替えは補助的)を行います。
コンピュータとの関わり方が、音声をキーにしたものです。
対して、これまでのものは、キーボード、タッチの物理的な接触に基づく入力、画面の書き換えによる視覚的なフィードバック(サウンドは補助的には使われる)が行われます。
音声を使った操作(Siri) | 従来 | |
入力方法 | 音声 | 物理的な接触に基づく(マウス・キーボード・タッチ) |
出力方法 | メインで音声 サブで視覚的 |
メインで視覚的 サブで音声 |
なので、Siriはこれまでとは全く違った体験をすることになります。
まーSiriとか書いてるけどAndroidもしゃべってコンシェルとかあるから、「音声入力・出力にもとづくコンピュータとの対話」とか書いた方がいいかもしんないです。
文字の読み書きは習わないとできないのですが、話したり聞いたりということはその土地で話されている言語であれば自然とできるようになります。
なので学習コストとしては低いと思うので、今後はますます音声入力が活用されていくんじゃないかと。
と予想をたてたんですが、ただ現在では現実問題として向き不向きがあると思います。
音声入力のイメージとしては、機械に何かをさせるというよりは、人に何かをお願いするということに近いと思います。
何かをお願いして、「あれ?この人わかってるのかな?」みたいな感覚。
Siriの場合だと「○○ですね。わかりました」という感じになって、やっとこちら側も「わかってくれたか。ホっ」みたいな感じになります。
ただこれが単純な作業の場合は、そこまで気にならないのですが、複雑な作業をやらせようとすると、わかってないので修正するという作業が増えてくるため、イラっとしてきます。
なのであまり込み入った作業というよりは、決まりきった作業を音声を使ってショートカットで行うといったものに向いているのかなと。
音声を理解する技術が今後進歩していけば、より複雑なことがより正確にできるようになると思います。
ただ現在では、ランチャーアプリみたいなそんな捉え方をするといいのかなと。
あー、あとあれです、文字入力(フリックとかキーボードをタップ)がめんどい時も意外と役に立ちます。
英数とか記号のきりかえとかが煩雑で面倒なとき、あれです。
iOSはキーボードに音声入力のボタンがあるので、それを使ってマップアプリで住所を入力するときとか、メモアプリに取り急ぎメモとりたいときとか、とりあえずざっと音声入力。
全然違ったりすることもあるのですが、だいたい合ってたりすれば、あとは普通にキーボードで微調整。
みたいなそんな使い方もアリです。
んで、音声入出力が面白かったので音声の解析についてちょびっと調べてみた話を次回にでも書いてみようと思います。
■ 自作iPhoneアプリ 好評発売中!
・フォルメモ - シンプルなフォルダつきメモ帳
・ジッピー電卓 - 消費税や割引もサクサク計算!
■ LINEスタンプ作りました!
毎日使える。とぼけたウサギ