lstm

CuDNNLSTM: UnknownError: Fail to find the dnn implementation

青春壹個敷衍的年華 提交于 2020-03-18 06:10:50
问题 I have run the model with LSTM as the first layer successfully. But out of curiosity, I replace LSTM with CuDNNLSTM. But after model.fit, it replied the following error message: UnknownError: Fail to find the dnn implementation. [[{{node cu_dnnlstm_5/CudnnRNN}} = CudnnRNN[T=DT_FLOAT, _class=["loc:@training_2/Adam/gradients/cu_dnnlstm_5/CudnnRNN_grad/CudnnRNNBackprop"], direction="unidirectional", dropout=0, input_mode="linear_input", is_training=true, rnn_mode="lstm", seed=87654321, seed2=0,

基于keras的双层LSTM网络和双向LSTM网络

拈花ヽ惹草 提交于 2020-03-12 10:55:57
1 前言 基于keras的 双层LSTM网络 和 双向LSTM网络 中,都会用到 LSTM层,主要参数如下: LSTM(units,input_shape,return_sequences=False) units:隐藏层神经元个数 input_shape=(time_step, input_feature):time_step是序列递归的步数,input_feature是输入特征维数 return_sequences: 取值为True,表示每个时间步的值都返回;取值为False,表示只返回最后一个时间步的取值 本文以MNIST手写数字分类为例,讲解双层LSTM网络和双向LSTM网络的实现。关于MNIST数据集的说明,见 使用TensorFlow实现MNIST数据集分类 。 笔者工作空间如下: 2 双层LSTM网络 双层LSTM网络结构 DoubleLSTM.py from tensorflow.examples.tutorials.mnist import input_data from keras.models import Sequential from keras.layers import Dense,LSTM #载入数据 def read_data(path): mnist=input_data.read_data_sets(path,one_hot=True)

PaperNote - 基于时空特征融合的入侵检测系统模型

。_饼干妹妹 提交于 2020-03-09 15:25:58
原文标题:Model of the intrusion detection system based on the integration of spatial-temporal features 原文作者:Jianwu Zhang, Yu Ling, Xingbing Fu, Xiongkun Yang, Gang Xiong, Rui Zhang 原文来源:Computers & Security 2020 原文链接:https://www.sciencedirect.com/science/article/pii/S0167404819302214 文章目录 1 简介 2 相关工作 2.1 入侵检测系统 2.2 深度神经网络 3 MSCNN-LSTM设计 3.1 数据选择 3.2 数据处理 3.2.1 数据标准化(standardization) 3.2.2 数据归一化(normalization) 3.3 特征学习过程 3.4 多尺度卷积(multiscale convolution) 3.5 LSTM网络 3.5.1 RNN 3.5.2 LSTM 3.6 池化层 3.7 模型反馈 4 实验 4.1 实验数据 4.2 实验过程 4.3 实验度量 4.4 实验结果 5 总结 1 简介 传统的机器学习方法,如SVM、贝叶斯网络、聚类等,当数据集的规模较小、维度较低时

利用LSTM(长短期记忆网络)来处理脑电数据

▼魔方 西西 提交于 2020-03-08 12:08:34
目录 LSTM 原理介绍 LSTM的核心思想 一步一步理解LSTM 代码案例 本分享为脑机学习者Rose整理发表于公众号:脑机接口社区(微信号:Brain_Computer).QQ交流群:903290195 Rose小哥今天介绍一下用LSTM来处理脑电数据。 LSTM 原理介绍 LSTMs(Long Short Term Memory networks,长短期记忆网络)简称LSTMs,很多地方用LSTM来指代它。本文也使用LSTM来表示长短期记忆网络。LSTM是一种特殊的RNN网络(循环神经网络)。想要说清楚LSTM,就很有必要先介绍一下RNN。下面我将简略介绍一下RNN原理。 所有循环神经网络都具有神经网络的重复模块链的形式。在标准的RNN中,该重复模块将具有非常简单的结构,比如单个tanh层。标准的RNN网络如下图所示: LSTM也具有这种链式结构,不过它的重复单元与标准RNN网络里的单元只有一个网络层不同,它的内部有四个网络层。LSTM的结构如下图所示。 在解释LSTM的详细结构时先定义一下图中各个符号的含义,符号包括下面几种,图中黄色类似于CNN里的激活函数操作,粉色圆圈表示点操作,单箭头表示数据流向,箭头合并表示向量的合并(concat)操作,箭头分叉表示向量的拷贝操作。 LSTM的核心思想 LSTM的核心是细胞状态,用贯穿细胞的水平线表示。 细胞状态像传送带一样

【Paper】ELMo:ELMO wants to play!

半城伤御伤魂 提交于 2020-03-07 03:01:02
今天学习的是 AllenNLP 和华盛顿大学 2018 年的论文《Deep contextualized word representations》,是 NAACL 2018 best paper。 这篇论文提出的 ELMo 模型是 2013 年以来 Embedding 领域非常精彩的转折点,并在 2018 年及以后的很长一段时间里掀起了迁移学习在 NLP 领域的风潮。 ELMo 是一种基于语境的深度词表示模型(Word Representation Model),它可以捕获单词的复杂特征(词性句法),也可以解决同一个单词在不同语境下的不同表示(语义)。 ELMo 本身思想不难,但是很多细节在论文中都没有给出,而是给出其他论文的引用,大大增加了阅读难度。翻阅了很多博客但是写得好的没几篇,大部分博客都只是介绍了 ELMo 的多层双向 LSTM 结构,而忽视其预训练方式和使用方式。 本文在书写过程中尽量涵盖一些我认为很重要的一些细节,也希望抛砖引玉得到大佬们更详细的见解。 1. Introduction 以 Word2Vec 和 GloVe 为代表的词表示模型通过训练为每个单词训练出固定大小的词向量,这在以往的 NLP 任务中都取得了不错的效果,但是他们都存在两个问题: 没法处理复杂的单词用法,即语法问题; 没办法结合语境给出正确词向量,即一词多义; 为了解决这个问题

Transforming the data stored in tfrecord format to become inputs to a lstm Keras model in Tensorflow and fitting the model with that data

亡梦爱人 提交于 2020-03-05 03:39:42
问题 I have a very long dataframe (25 million rows x 500 columns) which I can access as a csv file or a parquet file but I can load into the RAM of my PC. The data should be shaped appropriately in order to become input to a Keras LSTM model (Tensorflow 2), given a desired number of timestamps per sample and a desired number of samples per batch . This is my second post in this subject. I have already been given the advice to convert the data to tfrecord format. Since my original environment will

深度学习之神经网络(CNNRNNGAN)算法原理加实战 lstm代码

我们两清 提交于 2020-03-04 22:32:12
# 构建计算图——LSTM模型 # embedding # LSTM # fc # train_op # 训练流程代码 # 数据集封装 # api: next_batch(batch_size) # 词表封装: # api: sentence2id(text_sentence): 句子转换id # 类别的封装: # api: category2id(text_category). import tensorflow as tf import os import sys import numpy as np import math tf.logging.set_verbosity(tf.logging.INFO) print("ok1") # 定义数据超参数 def get_default_params(): return tf.contrib.training.HParams( num_embedding_size = 16, # 词的embedding长度 num_timesteps = 50, # lstm步长,一个句子词的个数 num_lstm_nodes = [32, 32], num_lstm_layers = 2, num_fc_nodes = 32, batch_size = 100, clip_lstm_grads = 1.0, # 梯度上限 learning

Define custom LSTM with multiple inputs

倖福魔咒の 提交于 2020-03-04 04:38:08
问题 Following the tutorial writing custom layer, I am trying to implement a custom LSTM layer with multiple input tensors. I am providing two vectors input_1 and input_2 as a list [input_1, input_2] as suggested in the tutorial. The single input code is working but when I change the code for multiple inputs, its throwing the error, self.kernel = self.add_weight(shape=(input_shape[0][-1], self.units), TypeError: 'NoneType' object is not subscriptable. What change I have to do to get rid of the

Define custom LSTM with multiple inputs

空扰寡人 提交于 2020-03-04 04:37:58
问题 Following the tutorial writing custom layer, I am trying to implement a custom LSTM layer with multiple input tensors. I am providing two vectors input_1 and input_2 as a list [input_1, input_2] as suggested in the tutorial. The single input code is working but when I change the code for multiple inputs, its throwing the error, self.kernel = self.add_weight(shape=(input_shape[0][-1], self.units), TypeError: 'NoneType' object is not subscriptable. What change I have to do to get rid of the

How to apply masking layer to sequential CNN model in Keras?

假如想象 提交于 2020-03-04 03:51:40
问题 I have a problem of applying masking layer to CNNs in RNN/LSTM model. My data is not original image, but I converted into a shape of (16, 34, 4)(channels_first). The data is sequential, and the longest step length is 22. So for invariant way, I set the timestep as 22. Since it may be shorter than 22 steps, I fill others with np.zeros. However, for 0 padding data, it's about half among all dataset, so with 0 paddings, the training cannot reach a very good result with so much useless data. Then