入力デバイスにマウスとキーボードを使用するPC、タッチパネルを指で操作するスマホ、この次の入力インターフェースは音声認識になると言われているのをご存じでしょうか? なぜこれからの時代のインターフェースが音声なのか、音声認識システムの現状はどこまで進んでいるのかについてご紹介します。

IoT時代と音声認識の親和性

IoT時代の到来により、多種多様なデバイスがネットワークに接続されることになります。今までは身の回りにあるものの中でも、PC、スマホ、テレビなどネットワークに接続されるデバイスは一部でした。しかし、冷蔵庫も洗濯機も車も、ありとあらゆるものがネットワークに接続されることで、新たな機能やイノベーションが起こるのは素晴らしいのですが、それぞれのデバイスをスイッチやコントローラーなど、個別のUIで無数のデバイスを制御するのは、ユーザーにとって果てしなく大きな負担になります。
そこで、今、IoT時代のインターフェースとして期待されているのが音声認識です。音声によるデバイスの操作が実現すれば、個別のUIや入力インターフェースに悩まされる必要がありません。全ての端末を統合的に管理する基幹となるシステムを通して、個別のデバイスを一元管理する。これがIoT時代に向けて開発・設計が進むインターフェースです。

音声認識のトップランナーは意外にもAmazon?

日本人にとって、いま最も身近な音声認識のシステムはiOS(Apple)やAndroid(google)のスマホに搭載されているものではないでしょうか。
しかし、IoTデバイス開発の前線で利用が拡大しているのは、そのどちらでもない、「Alexa」というシステムです。この日本人に馴染みのないAlexaこそ、Amazonが提供する音声認識システムなのです。
当初、Alexaは日本でまだ発売されていない「Amazon Echo」に搭載された音声認識システムとして注目を浴びました。このAmazon EchoはAmazonのハードウェア史上最大のヒット作と言われるほどの画期的なデバイスです。

そして、現在ではAmazon Echoのハードウェアを飛び出し、Alexaの普及が進んでいるという状況になっています。

音声認識の仕組みは英語を基軸として開発が進んでいます。日本語向けに展開される際には国内にも様々なプラットフォームが登場することが予想されますが、音声認識とAIはセットのシステム。正確な音声認識や人間とのコミュニケーションを行う上で、サンプル数=学習機会の少ないガラパゴス化したシステムでは、生き残るのは難しいと言えそうです。

おすすめ資料