- 2018-11-6
- カルチャー
- 日本マイクロソフト、「共感視覚モデル」を搭載したスマートフォン向けAI「りんな」を発表 はコメントを受け付けていません
日本マイクロソフトは、ソーシャルAIチャットボット「りんな」に「共感視覚モデル」を搭載したスマートフォン向けAI「りんな」を発表した。
スマートフォン向けAI「りんな」は、スマートフォンのカメラを「目」として、AI「りんな」が「見た」ものについてリアルタイムで音声コメントし、ユーザーと自然な会話を楽しむことができるAI。ユーザーとAI「りんな」が同じ風景、同じものを見て、それについてコミュニケーションすることができる。
スマートフォン向けAI「りんな」には、マイクロソフトの研究開発部門 マイクロソフトリサーチによる最新の画像処理、自然言語処理、音声認識及び音声合成技術が採用されている。なお、スマートフォン向けAI「りんな」は現在開発中で、一般公開時期は未定だ。
スマートフォン向けAI「りんな」は、現在提供中のソーシャルAIチャットボットAI「りんな」に最新の画像認識エンジン「共感視覚モデル(Empathy Vision model)」を採用しました。「共感視覚」とは、AIが「見た」風景やものなどについて、その名称や形、色などの「認識結果」を回答するのではなく、その風景やものを見た「感想」を述べることを指すとのこと。
従来の画像認識技術に「感情と共感」を与えることで、「見た」ものについて「認識結果」だけを伝えるのではなく、リアルタイムで感情のこもったコメントを生成し、ユーザーと音声による自然な会話が可能になった。
例えば、従来のAIとスマートフォン向けAI「りんな」が、上記のの画像にそれぞれコメントした場合、次のような違いがある。
従来のAIの場合:
「人です。子供です。犬です。車です。」
共感視覚モデル(りんな)の場合:
「わぁすてきな家族。お休みかなー。あ、車が動きそう!気を付けて」
このように、AI「りんな」が、ユーザーと同じ目線で世界を見て、コミュニケーションすることで、AIと人間がより自然な形でやりとりする世界に近づくものとマイクロソフトは考えている。
今回は、物理的にも心理的にもAIと人間の距離を近くすることを重視して、スマートフォンとカメラに着目して開発を行っている。なお、スマートフォン向けAI「りんな」は現在開発中だが、音声会話機能は「りんな」のLINE公式アカウント上で「りんなと音声通話」として提供している。
■日本マイクロソフト
■ITライフハック
■ITライフハック Twitter
■ITライフハック Facebook
■ITビジネスに関連した記事を読む
・VLIVERとして活躍できるプロジェクト「LINE VLIVERプロジェクト」からLINE VLIVER「ぶいらいぶねお」がデビュー
・ハート形の絵馬が萌える!旅行のプロが組んだ「愛知デスティネーションキャンペーン」プレスツアー
・モノクローム・ピンホール写真の第一人者!林 敏弘写真展「風と光の記憶」【Art Gallery M84】
・【Vtuberハロウィン企画】KAGAYAKI STARS第二弾メンバー初のオリジナル楽曲を10月31日にリリース
・大黒の縦型ヌードルシリーズ3品がリニューアルされて新登場!(醤油、味噌、海鮮しお)