本文共 1019 字,大约阅读时间需要 3 分钟。
腾讯AI Lab与香港中文大学合作推出了QuaSe(Quant化指导下的序列编辑)模型,旨在解决生成与给定数值相匹配的句子研究问题。该模型通过量化指标引导进行序列编辑,可以扩展到诸如CTR引导下的新闻标题和摘要生成、广告描述生成等业务场景。QuaSe模型通过VAE(变分自编码器)架构,设计了两个Encoder和一个Decoder,能够在给定句子及其数值评分下生成与目标数值相匹配的句子。
论文的主要任务是根据给定的句子及其数值评分(如Yelp平台的用户评价),生成与目标数值相匹配的句子,同时保持原句的主要内容。研究的挑战包括:
QuaSe模型包含单句建模和序列编辑两个部分。单句建模通过VAE建模隐变量Z和Y,表示句子内容及其数值属性。序列编辑部分设计了三个目标函数:
实验基于Yelp用户评论和打分数据,分为两部分:
腾讯AI Lab与武汉大学、苏州大学合作提出了一种新型神经对话模型,旨在减少通用回复(如“我不知道”、“我也是”)生成的频率。该模型通过引入权重调整损失函数,优化输出序列的多样性和长度,显著降低通用回复的生成频率。
本文基于Seq2Seq模型,通过引入权重调整损失函数,优化输出序列的多样性和长度,从而减少通用回复的生成。实验基于700万高质量的对话句对,保留500个输入作为测试集,聘请3个评测人员对回复的通顺度、相关性等方面进行评测。结果表明,该方法在保持句子通顺度的同时,显著提高了回复的相关性。
通过QuaSe模型和基于统计重加权的对话生成方法,腾讯AI Lab在文本生成研究领域取得了重要进展,为自然语言处理技术的实用应用提供了新的思路。
转载地址:http://gxlj.baihongyu.com/