lstm

How to efficiently connect features to LSTM model?

核能气质少年 提交于 2020-04-07 08:30:14
问题 I have the following ‍LSTM model where I input my time-series to the LSTM layer. The other input (which is the dense layer) contains the 10 features I manually extracted from the time-series. input1 = Input(shape=(26,6)) x1 = LSTM(100)(input1) input2 = Input(shape=(10,1)) x2 = Dense(50)(input2) x = concatenate([x1,x2]) x = Dense(200)(x) output = Dense(1, activation='sigmoid')(x) model = Model(inputs=[input1,input2], outputs=output) I thought that the performance of my model will hugely

人工智能深度学习神经网络在双色球彩票中的应用研究(二)

ε祈祈猫儿з 提交于 2020-03-28 08:26:17
人工智能深度学习神经网络在双色球彩票中的应用研究(二) 深度学习这个能否用到数字彩(双色球,时时彩)这种预测上来呢? 神经网络的看到有不少论文研究这个的,深度学习的还没有看到相关研究的文章 预测也就是分类任务 深度学习应该是能做的 序列的数据可能得用LSTM 深度学习和机器学习是不是差别很大呢? 机器学习的范围太大了 深度学习主要是神经网络的拓展。 当年,神经网络被F·Rosenblatt一篇著作《感知机》给直接打了下去,然后美国军方也大量撤资,神经网络的研究就此陷入低潮,直到这些年,计算机飞速发展,加上美国的物理学家Hopfield的两篇论文,才上神经网络重新热了起来,为了让公共不会认为这个又是神经网络而影响推广,所以改名为深度学习,两者其实一码事。 ----------------------------------- 深度学习的dl4j在文本分析上用了lstm(分类任务) http://deeplearning4j.org/lstm.html Google开源的深度学习框架tensorflow也有个例子:ptb_word_lm caffeonspark用在视觉图片识别上比较好,dl4j用在NLP上做类似问答搜索的比较多,tensorflow用在学习新的算法上,dl4j, caffeonspark, tensorflow都有LSTM自动分类的算法应用,

Wrong prediction when using lstm

人盡茶涼 提交于 2020-03-28 06:48:09
问题 I have implemented an emotion detection analysis using lstm, I have firstly trained my model with a dataset of reviews and its emotion, then I have implemented the predicting part where I have put my new dataset to predict emotion for each reviews. But the system is giving me wrong results. Can show please show me which part of the code is incorrect and help me to correct my errors so that I can have good results.. Please,, I am posing my codes below.. For the implementation, I have firstly

TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短期记忆网络使用

余生颓废 提交于 2020-03-26 09:21:32
3 月,跳不动了?>>> 这几天空余时间玩了2天的单机游戏。 黑暗之魂,手柄玩起来挺爽, 这一章节我们讲一下 循环神经网络,RNN 是一种非常通用的神经网络,无论是图像识别 还是 声音识别 文字识别 NLP 时间系列的数据 周期的数据 等等都是通用适合的. 在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNNs能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关.比如 图片 如果28x28像素 如果我们把每一行像素跟上一行的像素 看做时间系列处理的话,也就是 在传统的神经网络WX+B 引入了t 每一个时间系列 t范围内,下一次的w 通过上一个t-1 的wx+b得到 w 所以 图像如果使用RNN处理适合 图像理解 效果很好,NLP 效果也很好。 详细的介绍 可以看这个 http://www

step by step构建LSTM的向前传播(Building a LSTM step by step)

感情迁移 提交于 2020-03-26 09:16:40
3 月,跳不动了?>>> 本文参考原文- http://bjbsair.com/2020-03-25/tech-info/6366/ 目录 阀门和状态描述 LSTM cell LSTM整个过程 需要理解: 遗忘门,更新门,输出门的作用是什么,它们是怎么发挥作用的。 单元状态 cell state 是如何来选择性保留信息。 下面这张图将示意LSTM的操作。 LSTM单元,它在每一个时间步长跟踪更新“单元状态”或者是记忆变量。 同之前讲的RNN例子一样,我们将以一个时间步长的LSTM单元执行开始,接着你就可以用for循环处理Tx个时间步长。 阀门和状态概述 遗忘门 概念: 假设我们正在阅读一段文本中的单词,并计划使用LSTM跟踪语法结构,例如判断主体是单数(“ puppy”)还是复数(“ puppies”)。 如果主体更改其状态(从单数词更改为复数词),那么先前的记忆状态将过时,因此我们“忘记”过时的状态。 “遗忘门”是一个张量,它包含介于0和1之间的值。 如果遗忘门中的一个单元的值接近于0,则LSTM将“忘记”之前单元状态相应单位的存储值。 如果遗忘门中的一个单元的值接近于1,则LSTM将记住大部分相应的值。 公式: 公式的解释: 包含控制遗忘门行为的权重。 之前时间步长的隐藏状态和当前时间步长的输入连接在一起乘以。 sigmoid函数让每个门的张量值在0到1之间。

step by step构建LSTM的向前传播(Building a LSTM step by step)

安稳与你 提交于 2020-03-26 02:27:03
本文参考原文- http://bjbsair.com/2020-03-25/tech-info/6366/ 目录 阀门和状态描述 LSTM cell LSTM整个过程 需要理解: 遗忘门,更新门,输出门的作用是什么,它们是怎么发挥作用的。 单元状态 cell state 是如何来选择性保留信息。 下面这张图将示意LSTM的操作。 LSTM单元,它在每一个时间步长跟踪更新“单元状态”或者是记忆变量。 同之前讲的RNN例子一样,我们将以一个时间步长的LSTM单元执行开始,接着你就可以用for循环处理Tx个时间步长。 阀门和状态概述 遗忘门 概念: 假设我们正在阅读一段文本中的单词,并计划使用LSTM跟踪语法结构,例如判断主体是单数(“ puppy”)还是复数(“ puppies”)。 如果主体更改其状态(从单数词更改为复数词),那么先前的记忆状态将过时,因此我们“忘记”过时的状态。 “遗忘门”是一个张量,它包含介于0和1之间的值。 如果遗忘门中的一个单元的值接近于0,则LSTM将“忘记”之前单元状态相应单位的存储值。 如果遗忘门中的一个单元的值接近于1,则LSTM将记住大部分相应的值。 公式: 公式的解释: 包含控制遗忘门行为的权重。 之前时间步长的隐藏状态和当前时间步长的输入连接在一起乘以。 sigmoid函数让每个门的张量值在0到1之间。 遗忘门和之前的单元状态有相同的shape。

How to convert LSTM model to BiLSTM model in keras?

这一生的挚爱 提交于 2020-03-25 16:03:22
问题 I have the follwing two LSTM models where; model 1: first LSTM layer and then CNN layer model 2: first CNN layer and then LSTM layer Code of Model 1: model = Sequential() model.add(LSTM(100, return_sequences=True, input_shape=(25,3))) model.add(Conv1D(100, kernel_size=3, activation = 'relu')) model.add(GlobalMaxPooling1D()) model.add(Dense(50)) model.add(Dense(1, activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) Code of Model 2: model =

How to convert LSTM model to BiLSTM model in keras?

≡放荡痞女 提交于 2020-03-25 16:03:12
问题 I have the follwing two LSTM models where; model 1: first LSTM layer and then CNN layer model 2: first CNN layer and then LSTM layer Code of Model 1: model = Sequential() model.add(LSTM(100, return_sequences=True, input_shape=(25,3))) model.add(Conv1D(100, kernel_size=3, activation = 'relu')) model.add(GlobalMaxPooling1D()) model.add(Dense(50)) model.add(Dense(1, activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) Code of Model 2: model =

How to combine two LSTM layers with different input sizes in Keras?

纵然是瞬间 提交于 2020-03-23 10:24:10
问题 I have two types of input sequences where input1 contains 50 values and input2 contains 25 values. I tried to combine these two sequence types using a LSTM model in functional API. However since the length of my two input sequences are different, I am wondering whether what I am currently doing is the right way. My code is as follows: input1 = Input(shape=(50,1)) x1 = LSTM(100)(input1) input2 = Input(shape=(25,1)) x2 = LSTM(50)(input2) x = concatenate([x1,x2]) x = Dense(200)(x) output = Dense

How to use deep learning models for time-series forecasting?

柔情痞子 提交于 2020-03-18 12:19:24
问题 I have signals recorded from machines (m1, m2, so on) for 28 days. (Note: each signal in each day is 360 length long). machine_num, day1, day2, ..., day28 m1, [12, 10, 5, 6, ...], [78, 85, 32, 12, ...], ..., [12, 12, 12, 12, ...] m2, [2, 0, 5, 6, ...], [8, 5, 32, 12, ...], ..., [1, 1, 12, 12, ...] ... m2000, [1, 1, 5, 6, ...], [79, 86, 3, 1, ...], ..., [1, 1, 12, 12, ...] I want to predict the signal sequence of each machine for next 3 days. i.e. in day29 , day30 , day31 . However, I don't