「ディープラーニング・対話・まなびプロジェクト」とは
東京工科大学では2010年頃からチャットとデータ共有を行うための協調(グループ)学習システムを構築し、会話ログや学習・課題データを蓄積し続けている。グループ学習は多くの学生が同時にコミュニケーションを取りながら進行するため、教員がひとりひとりの状況を把握するのが難しいからだ。 東京工科大学ではそこから一歩進んで、協調学習システム内における個々の発言がグループ学習においてどのような役割を持つかをディープラーニングでAIに学習させ、会話内容をリアルタイムで解析・分類し意味によるタグ付けができる仕組みを研究している。それが「ディープラーニング・対話・まなびプロジェクト」である。AIによる会話のタグ付け
ディープラーニングの学習データは実際のチャット文章に人力でタグ付けをして作成したという。学習データによりシステムは、チャット文章や会話音声に対しリアルタイムでタグ付けが可能となった。
このタグ付けにより、学生の学習への参加状況やグループ内でどのような役割を持っているかなどの分析が可能となった。 現在はこの分析結果を視覚的に表示するサマリー管理機能を開発しているとのこと。
この技術により、SNSでの発言をマーケティングに活かしたり、コールセンターでの会話から発生した問題をいち早く発見するなどの応用が考えられる。
タグ付けの仕組み
参考文章:(https://laweb.cloud.teu.ac.jp/cms/wp-content/uploads/2017/09/jsise172.pdf) 先述の通り、協調学習システムに蓄積された会話データを人力でタグ付けしたものをディープラーニングで学習させることでリアルタイムのタグ付けを実現している。当初は下表に示したようなタグ付けがされていた。
タグ | 意味 | 例 |
---|---|---|
同意・了承 | 肯定的な返答 | オッケー |
提案・意見 | 意見を伝える or Yes/Noの質問 | この五人で提出しませんか? |
質問 | Yes/No以外の質問 | タイトルどうしましょうかね |
報告 | 自分の状況の報告 | 複雑な方はなおしました |
挨拶 | 他メンバーへの挨拶 | おはようございます |
メタ | 課題に関係のない発言 | あれ?チャット反映されてなくない? |
確認 | 課題内容や作業の進め方について確認 | では提出しておきますね? |
感謝 | 他メンバーへの感謝 | さんくす! |
転換 | 次の課題へ進めるなど、扱う事象を変える発言 | じゃあ次の議題 |
ジョーク | 他メンバーへのジョーク | まぁフィーリングでいいんじゃない? |
依頼 | 誰かに作業を依頼する | 提出やっておいてください |
訂正 | 過去の発言を訂正する | 誤字、児童→自動 |
不同意、拒否 | 否定的な返答 | それは違うよ |
愚痴 | 課題やシステムに対する不満など | これ、期限短すぎでしょう… |
ノイズ | 意味をなさない発言 | くぁwせdrftgyふじこlp; |
この手法は会話の前後関係を考慮する考え方である。例えば A:「大化の改新は何年にありましたか?」
B:「大化の改新は645年にありました」 という会話があったとき、Aは「質問」、Bは「回答」となるが、仮にAの発言が無かった場合、Bは「事実の提示」となる。
このため、Seq2Seqにおいては「ソース」と「リプライ」という発言のペアを作成する。実際に評価されるのはリプライ側で、このペアの作り方は以下の3パターンがある。 1.チャットの機能(アンカー等)で明示的に参照が行われている場合、アンカーを出している側がリプライ、出されている側がソースとなる
13 Aさん 2017/10/15 12:34:562.明示的な参照が行われていない場合、前後の発言でソース→リプライの関係となる
大化の改新は何年にありましたか?(ソース)
15 Bさん 2017/10/15 13:12:04
>>13
大化の改新は645年にありました(リプライ)
13 Aさん 2017/10/15 12:34:563.スレッドの最初の発言については、それ自身をリプライとし、ソースは空文となる
大化の改新は何年にありましたか?(ソース)
14 Bさん 2017/10/15 13:12:04
大化の改新は645年にありました(リプライ)
1 Aさん 2017/10/15 12:34:56上記のソース・リプライをそれぞれencoder,decoderと呼ばれるニューラルネットワークに単語単位で入力し、最終的にdecoder(リプライ)側の出力を各タグの予測確率値として出力する。なお、精度向上のためencoderとdecoderのペアは2セット作られている。 Seq2Seqで付けられたタグの正答率は約71%とのこと。うち、特に誤分類が起きにくいのは挨拶・了承・質問で、これらは文意を深く捉えずとも容易に判断でき、人間の感覚とも一致しやすかった。一方でジョークやノイズ等は誤分類が起きやすく、原因は文意を深く捉える必要があるためとされていた。やはり人間と違ってAIには冗談は通じないといえる。 今後の改善点は学習データに使うタグ付けの考え方と、ニューラルネットワークにおいてソースを複数取り込める、より複雑なモデルを考える必要があるとのことだった。
大化の改新は何年にありましたか?(リプライ)
※ソースはなし