抱歉,您的浏览器无法访问本站

本页面需要浏览器支持(启用)JavaScript


了解详情 >

Chatbot 更多 Paper 论文和参考资料 (感谢 PaperWeekly)

Paper 1

《A Neural Conversational Model》

代码: https://github.com/Conchylicultor/DeepQA 2128 star

  • 作者: 来自 Google Brain,毕业于 UC Berkeley 的 Oriol Vinyals博士
  • 对比 cleverbot (第二代基于检索的聊天机器人),部分回答 更智能。
  • 如何客观地评价生成的效果? 有一些问题没有标准答案 来说,自动评价 VS 用户评价

作者对一些评估方法提出了一些自己的思考方式

DeepQA

  1. chatbot 训练的部分
  2. chatbot_website 服务的部分,网页端

DeepQA/chatbot/ 这几个文件比较重要

1
2
3
4
5
from chatbot.corpus.cornelldata import CornellData
from chatbot.corpus.opensubsdata import OpensubsData
from chatbot.corpus.scotusdata import ScotusData
from chatbot.corpus.ubuntudata import UbuntuData
from chatbot.corpus.lightweightdata import LightweightData

语料太大的情况下,做一些采样或者层次化的 softmax 可行

1
2
3
4
5
6
7
8
if 0 < self.args.softmaxSamples < self.textData.getVocabularySize():
outputProjection = ProjectionOp(
(self.textData.getVocabularySize(), self.args.hiddenSize),
scope='softmax_projection',
dtype=self.dtype
)

def sampledSoftmax(labels, inputs):

Paper 2

《A Diversity-Promoting Objective Function for Neural Conversation Models》

  • 作者: Jiwei LiJiwei Li’s Github
  • 关于《A Persona-Based Neural Conversation Model》的pre-paper Seq2seq 容易产出”呵呵”,”都可以”,”我不知道”这种 safe 但无意义的回答

  • NLG 问题,常使用 MLE 作为目标函数,产出的结果通畅,但 diversity 差,可考虑 decoder 产出 n-best, 再 rank

  • 提出 Maximum Mutual Information(MMI) 作为目标函数, 有 MMI-antiLM 和MMI-bidi 2种

Paper 3

《A Persona-Based Neural Conversation Model》

  • Speaker Model 和 Speaker-Addressee Model
  • 作者: Jiwei LiJiwei Li’s Github
  • 代码: https://github.com/jiweil/Neural-Dialogue-Generation
  • 解决多轮对话回答不一致问题

  • Model 中融入 user identity (比如背景信息、用户画像,年龄等信息),构建出个性化的 seq2seq 模型,为不同的 user, 以及 同一个user 对不同的对象对话生成不同风格的 response

image

Paper 4

《A Hierarchical Latent Variable Encoder-Decoder Model for Generating Dialogues》

  • 代码: https://github.com/julianser/hed-dlg-truncated
  • 作者: 来自蒙特利尔大学和Maluuba公司
  • 意在解决语言模型生成部分存在的问题
  • 整个 seq2seq 框架中 decoder生成部分的问题,不仅是 bot领域对话生成的问题,都可以尝试用这个方式。
image

Paper 5

更多论文和参考资料(感谢PaperWeekly)

Reference

Comments