会話体験プラットフォーム

会話AIエージェント向け多目的プラットフォームは様々な場面での会話体験を実現するために必要な機能を提供します。主に意図推定,インタラクション制御、動作生成、会話能力判定、Human-in-the-Loop機械学習等の各種サービス、およびそれらをオーケストレーションする対話制御から構成されます。

会話体験プラットフォーム

会話AIエージェント向け多目的プラットフォームは様々な場面での会話体験を実現するために必要な機能を提供します。主に意図推定,インタラクション制御、動作生成、会話能力判定、Human-in-the-Loop機械学習等の各種サービス、およびそれらをオーケストレーションする対話シナリオのオーサリングツールから構成されます。

現在、プラットフォームによりサポートされる会話のパターンには、インタビューのようにユーザーの情報を適切に引き出せる質問を行うものや、ミュージアムガイドのようにユーザーの興味に応じて説明を展開するようなものがあり、今後、窓口業務や小売の現場などで人間とAIエージェントが共同意思決定を行えるような、各産業での活用シーンを見据えた多様な会話パターンがサポートされていく予定です。また、ユーザーの興味や対話履歴に基づく会話のパーソナライゼーションには量子コンピューティング技術も活用されています。

会話指向の通信フレームワーク

このような対話システムでの利用を目的として、相互のモジュールが遅延なく、かつ複数のユーザが同時にアクセスしてもロバストに処理できるオープンソースの通信フレームワーク Duplex Communication and Transactional Streaming FrameworkDUCTS)を設計・開発してきました(知能フレームワーク研究所との共同開発)。スマートスピーカーのような音声検索(Pull型情報享受)の場合はユーザからの音声クエリを受け取り検索結果を返すことで済むため一般的なWebサーバのパラダイムで対応可能でしたが、より「会話的」なインタラクションでは、システムとユーザのどちらに発話権があるか自明でない等、通常のリニアなサーバ-クライアント通信では対応が難しい状況がありました。DUCTSは、会話インタラクション高度な非同期通信をネイティブにサポートし、発話節に区切られたような細かなデータ単位に基づく通信を実現するサーバとクライアント(現在、モバイル、Web、VR/ARに対応)から構成され、文字データ・音声データだけでなく、マルチモーダルデータに対応しています。また、同時に複数のユーザの接続数に応じてクラウド上でスケールする仕組みになっています。

page