2017/10/3〜10/6まで幕張メッセで開催されていた最新技術の展示会、CEATEC JAPAN 2017(http://www.ceatec.com/ja/)にて、東京工科大学様(http://www.teu.ac.jp/)のブースで展示されていた「ディープラーニング・対話・まなびプロジェクト」(https://laweb.cloud.teu.ac.jp/)を紹介する。

「ディープラーニング・対話・まなびプロジェクト」とは

東京工科大学では2010年頃からチャットとデータ共有を行うための協調(グループ)学習システムを構築し、会話ログや学習・課題データを蓄積し続けている。グループ学習は多くの学生が同時にコミュニケーションを取りながら進行するため、教員がひとりひとりの状況を把握するのが難しいからだ。 東京工科大学ではそこから一歩進んで、協調学習システム内における個々の発言がグループ学習においてどのような役割を持つかをディープラーニングでAIに学習させ、会話内容をリアルタイムで解析・分類し意味によるタグ付けができる仕組みを研究している。それが「ディープラーニング・対話・まなびプロジェクト」である。

AIによる会話のタグ付け

ディープラーニングの学習データは実際のチャット文章に人力でタグ付けをして作成したという。
学習データによりシステムは、チャット文章や会話音声に対しリアルタイムでタグ付けが可能となった。
このタグ付けにより、学生の学習への参加状況やグループ内でどのような役割を持っているかなどの分析が可能となった。 現在はこの分析結果を視覚的に表示するサマリー管理機能を開発しているとのこと。
この技術により、SNSでの発言をマーケティングに活かしたり、コールセンターでの会話から発生した問題をいち早く発見するなどの応用が考えられる。

タグ付けの仕組み

参考文章:(https://laweb.cloud.teu.ac.jp/cms/wp-content/uploads/2017/09/jsise172.pdf) 先述の通り、協調学習システムに蓄積された会話データを人力でタグ付けしたものをディープラーニングで学習させることでリアルタイムのタグ付けを実現している。
当初は下表に示したようなタグ付けがされていた。
タグ意味
同意・了承肯定的な返答オッケー
提案・意見意見を伝える or Yes/Noの質問この五人で提出しませんか?
質問Yes/No以外の質問タイトルどうしましょうかね
報告自分の状況の報告複雑な方はなおしました
挨拶他メンバーへの挨拶おはようございます
メタ課題に関係のない発言あれ?チャット反映されてなくない?
確認課題内容や作業の進め方について確認では提出しておきますね?
感謝他メンバーへの感謝さんくす!
転換次の課題へ進めるなど、扱う事象を変える発言じゃあ次の議題
ジョーク他メンバーへのジョークまぁフィーリングでいいんじゃない?
依頼誰かに作業を依頼する提出やっておいてください
訂正過去の発言を訂正する誤字、児童→自動
不同意、拒否否定的な返答それは違うよ
愚痴課題やシステムに対する不満などこれ、期限短すぎでしょう…
ノイズ意味をなさない発言くぁwせdrftgyふじこlp;
ディープラーニングの分析モデルとしては「Sequence to Sequence(Seq2Seq)」と呼ばれる手法が使われている。
この手法は会話の前後関係を考慮する考え方である。例えば A:「大化の改新は何年にありましたか?」
B:「大化の改新は645年にありました」 という会話があったとき、Aは「質問」、Bは「回答」となるが、仮にAの発言が無かった場合、Bは「事実の提示」となる。
このため、Seq2Seqにおいては「ソース」と「リプライ」という発言のペアを作成する。実際に評価されるのはリプライ側で、このペアの作り方は以下の3パターンがある。 1.チャットの機能(アンカー等)で明示的に参照が行われている場合、アンカーを出している側がリプライ、出されている側がソースとなる
13 Aさん 2017/10/15 12:34:56
 大化の改新は何年にありましたか?(ソース)
15 Bさん 2017/10/15 13:12:04
 >>13
 大化の改新は645年にありました(リプライ)
2.明示的な参照が行われていない場合、前後の発言でソース→リプライの関係となる
13 Aさん 2017/10/15 12:34:56
 大化の改新は何年にありましたか?(ソース)
14 Bさん 2017/10/15 13:12:04
 大化の改新は645年にありました(リプライ)
3.スレッドの最初の発言については、それ自身をリプライとし、ソースは空文となる
1 Aさん 2017/10/15 12:34:56
 大化の改新は何年にありましたか?(リプライ)
※ソースはなし
上記のソース・リプライをそれぞれencoder,decoderと呼ばれるニューラルネットワークに単語単位で入力し、最終的にdecoder(リプライ)側の出力を各タグの予測確率値として出力する。なお、精度向上のためencoderとdecoderのペアは2セット作られている。 Seq2Seqで付けられたタグの正答率は約71%とのこと。うち、特に誤分類が起きにくいのは挨拶・了承・質問で、これらは文意を深く捉えずとも容易に判断でき、人間の感覚とも一致しやすかった。一方でジョークやノイズ等は誤分類が起きやすく、原因は文意を深く捉える必要があるためとされていた。やはり人間と違ってAIには冗談は通じないといえる。 今後の改善点は学習データに使うタグ付けの考え方と、ニューラルネットワークにおいてソースを複数取り込める、より複雑なモデルを考える必要があるとのことだった。

謝辞

会場の説明担当者様、とても丁寧な説明に加えて掲載許可まで頂きありがとうございました。