最近学习相关序列模型的一点记录

女生的网名这么多〃 提交于 2020-03-27 10:09:33

3 月,跳不动了?>>>

之前看了一个用rnn作诗、写文章比较典型的例子:https://github.com/hzy46/Char-RNN-TensorFlow 其训练过程:

假设batchsize=2,序列长度为5,原文章:12345642985718041937...

输入x:[[1 2 3 4 5],[6 4 2 9 8]],尺寸2x5 输出y:[[2 3 4 5 1],[4 2 9 8 6]],尺寸2x5, 后一个字是前一个字的输出,最后一个字的输出用第一个字替换(也可以用结束符)

分别one-hot表示: x:[[0100000000, 00100..., 00010..., 000010...., 000001....],[..., ..., ..., ..., ...]] ,尺寸2 x 5 x n_class y:[[00100...., 00010..., 000010...., 000001....,0100000000],[..., ..., ..., ..., ...]],尺寸2 x 5 x n_class

输入x到RNN: x_out, x_state = RNN(x), x_out:(分别对应序列中每个字符的输出),尺寸:2 x 5 x h_size x_state:(序列最后状态向量),尺寸:2 x h_size

增加输出层: logits = tf.matmul(x_out, w) + b 尺寸w:(h_size x n_class), b:(n_class) logits: 2 x 5 x n_class

训练损失最小: loss = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=y) # y尺寸=logits尺寸

测试阶段: 给定一个初始字符,产生logits,经过softmax得到n_class个概率,输出概率最大的对应的字符,将该字符又作为输入产生第二个logits得到下一个字符,持续下去,将得到类似于训练佯本的文章。

注意: 上面方法只能用 x_out信息与y一一对应来训练,而不是用x_state;而在机器翻译encode-decode模型时用x_state来产生序列,这是一个不同点。

再举一个匹配模型的例子:相似问题对训练。 训练过程:

假设batchsize=2,序列长度最大为5,样例:q1:12345 q2: 64298 y:1; q1:57180 q2:41937 y:0 ; ...

输入q1:[[1 2 3 4 5],[5 7 1 8 0]],尺寸2x5 输入q2:[[6 4 2 9 8],[4 1 9 3 7]],尺寸2x5 输出y:[1,0]

分别embedding表示: q1:[[[0.5 0.2 0.6...], [0.1 2.1...], [0.6...], [-1.2....], [2.0....]],[[...], [...], [...], [...], [...]]] ,尺寸2 x 5 x embedsize q2:[[[0.2 0.1 0.6...], [1.1 2.2...], [0.7...], [-0.2....], [3.0....]],[[...], [...], [...], [...], [...]]],尺寸2 x 5 x embedsize

输入q1,q2到RNN: q1_out, q1_state = RNN(q1), q2_out, q2_state = RNN(q2), out:(分别对应序列中每个字符的输出),尺寸:2 x 5 x h_size state:(序列最后状态向量),尺寸:2 x h_size

特征选择: 可以是state,也可以是out,可以是pooling(out) 还可以是tf.matmul(out, w) + b 最后得到feature1,feature2 两个向量的关系logits = f(feature1,feature2),尺寸batchsizex 1

训练损失最小: loss = tf.nn.sigmoid_cross_entropy_with_logits(labels=y, logits=logits )

测试阶段: 给定q1,q2,产生logits,经过sigmoid得到相似度,来判断是否是0或1。

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!