清华CoAI课题组新书《现代自然语言生成》正式发布!

若如初见. 提交于 2021-01-21 11:02:16

文末送10本签名书籍,包邮!


内容简介

本书总结了以神经网络为代表的现代自然语言生成的基本思想、模型和框架。本书共12章,首先介绍了自然语言生成的研究背景、从统计语言模型到神经网络语言建模的过程,以及自然语言建模的思想与技术演化过程;

其次从基础模型角度介绍了基于循环神经网络、基于 Transformer 的语言生成模型,从优化方法角度介绍了基于变分自编码器、基于生成式对抗网络的语言生成模型,从生成方式角度介绍了非自回归语言生成的基本模型和框架;

然后介绍了融合规划的自然语言生成、融合知识的自然语言生成、常见的自然语言生成任务和数据资源,以及自然语言生成的评价方法;最后总结了本书的写作思路及对自然语言生成领域未来发展趋势的展望。

本书可作为高等院校计算机科学与技术、人工智能、大数据等相关专业高年级本科生、研究生相关课程的教材,也适合从事自然语言处理研究、应用实践的科研人员和工程技术人员参考。

专家推荐

周明

原微软亚洲研究院副院长

国际计算语言学会(ACL)主席

创新工场首席科学家

在 AI 创作风起云涌的今天,故事、诗歌、散文,甚至代码,都可以由 AI 自动生成。《现代自然语言生成》无疑是非常及时和重要的一本书,它详细阐述了以神经网络为代表的现代自然语言生成的基本思想、模型和框架,全书由浅入深、浑然一体,强烈推荐读者们阅读和收藏。


李航

字节跳动AI Lab Director

ACL / IEEE Fellow

ACM杰出科学家

深度学习给自然语言处理带来了革命性的变革,尤其体现在语言生成方面。《现代自然语言生成》一书系统全面地介绍了语言生成技术,特别是基于深度学习的语言生成技术。这是一本不可多得的好书,相信对从事自然语言处理工作的人,以及学习自然语言处理知识的人都会有很大帮助。强烈推荐!


刘兵

伊利诺伊大学芝加哥分校杰出教授

ACM / AAAI / IEEE Fellow

这是一本关于自然语言生成的非常卓越的教材。内容覆盖全面,有深度,并且由浅入深,很容易阅读。每一个与自然语言生成相关的学者和实践者都值得拥有一本。


第1章 自然语言生成的研究背景

  • 1.1 自然语言生成的背景概述
  • 1.2 基本定义与研究范畴
  • 1.3 自然语言生成与自然语言理解
  • 1.4 传统的模块化生成框架
  • 1.5 端到端的自然语言生成框架
  • 1.6 典型的自然语言生成任务
  • 1.7 自然语言生成的可控性
  • 1.8 本书结构

第2章 从统计语言模型到神经网络语言建模

  • 2.1 统计语言模型
  • 2.2 神经网络语言模型
  • 2.3 静态词向量模型
  • 2.4 语境化语言表示模型
  • 2.5 本章小结


第3章 基于RNN的语言生成模型

  • 3.1 RNN的基本原理
  • 3.2 RNN的训练算法
  • 3.3 长短期记忆神经网络与门控循环单元
  • 3.4 RNN的架构设计
  • 3.5 基于RNN的语言模型
  • 3.6 序列到序列模型
  • 3.7 解码器的解码方法
  • 3.8 序列到序列模型存在的问题
  • 3.9 本章小结


第4章 基于Transformer的语言生成模型

  • 4.1 Transformer模型的基本原理
  • 4.2 基于Transformer的编码器—解码器结构
  • 4.3 Transformer模型与RNN模型的比较
  • 4.4 Transformer模型问题与解决方案
  • 4.5 基于Transformer的预训练语言生成模型
  • 4.6 本章小结


第5章 基于变分自编码器的语言生成模型

  • 5.1 自编码器
  • 5.2 变分自编码器
  • 5.3 条件变分自编码器
  • 5.4 解码器设计
  • 5.5 变分自编码器在语言生成任务上的应用实例
  • 5.6 主要问题及解决方案
  • 5.7 本章小结


第6章 基于生成式对抗网络的语言生成模型

  • 6.1 生成式对抗网络的背景
  • 6.2 生成式对抗网络的基本原理
  • 6.3 生成式对抗网络的基本结构
  • 6.4 生成式对抗网络的优化问题
  • 6.5 生成式对抗模型在文本与图像中的区别
  • 6.6 生成式对抗网络的应用
  • 6.7 本章小结


第7章 非自回归语言生成

  • 7.1 基本原理
  • 7.2 非自回归模型的挑战
  • 7.3 非自回归模型的改进
  • 7.4 应用与拓展
  • 7.5 本章小结


第8章 融合规划的自然语言生成

  • 8.1 数据到文本生成任务中的规划
  • 8.2 故事生成任务中的规划
  • 8.3 本章小结


第9章 融合知识的自然语言生成

  • 9.1 引入知识的动机
  • 9.2 引入知识面临的挑战
  • 9.3 知识的编码与表示
  • 9.4 融合知识的解码方法
  • 9.5 应用实例
  • 9.6 发展趋势
  • 9.7 本章小结


第10章 常见的自然语言生成任务和数据资源

  • 10.1 机器翻译
  • 10.2 生成式文本摘要
  • 10.3 意义到文本生成
  • 10.4 数据到文本生成
  • 10.5 故事生成
  • 10.6 对话生成
  • 10.7 多模态语言生成
  • 10.8 无约束语言生成
  • 10.9 本章小结


第11章 自然语言生成的评价方法

  • 11.1 语言生成评价的角度
  • 11.2 人工评价
  • 11.3 自动评价
  • 11.4 自动评价与人工评价的结合
  • 11.5 自动评价与人工评价的统计相关性
  • 11.6 本章小结


第12章 自然语言生成的趋势展望

  • 12.1 现状分析
  • 12.2 趋势展望


参考文献

完整目录和一部分试看内容可以在以下链接查看。

http://coai.cs.tsinghua.edu.cn/tools/7

https://github.com/thu-coai/NLG_book

送10本签名书籍

扫描二维码添加小助手初夏 HIT_NLP参与抽奖

切记备注“抽奖+学校+姓名”帮助快速通过

我们将送出黄民烈教授亲笔签名新书共10本

活动截止时间为 1 月 23 日 20:00

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!