-
图书
- 深度学习,Yoshua Bengio,Ian Goodfellow,Aaron Courville,MIT Press,准备中。
-
评论文章
- 代表性学习:评论与新视角,Yoshua Bengio,Aaron Courville,Pascal Vincent,Arxiv,2012。
- 专题或评论文章 学习人工智能的深层架构 (基础和机器学习趋势,2009)。
- 深度机器学习 - 人工智能研究的新前沿 - Itamar Arel,Derek C. Rose和Thomas P. Karnowski 的 调查报告。
- 格雷夫斯,答(2012年)。 用递归神经网络进行监督序列标记(第385卷)。斯普林格。
- Schmidhuber,J.(2014)。神经网络的深度学习:概述。75页,850+参考文献,http: //arxiv.org/abs/1404.7828,PDF&LATEX 源代码和http://www.idsia.ch/~juergen/ deep-learning-overview.html下的完整公共BIBTEX文件 。
- LeCun,Yann,Yoshua Bengio和Geoffrey Hinton。自然 521,没有。7553(2015):436-444。
-
强化学习
-
计算机视觉
- ImageNet深度卷积神经网络分类,Alex Krizhevsky,Ilya Sutskever,Geoffrey E Hinton,NIPS 2012。
- 深入卷积,Christian Szegedy,刘伟,杨扬佳,Pierre Sermanet,Scott Reed,Dragomir Anguelov,Dumitru Erhan,Vincent Vanhoucke,Andrew Rabinovich,2014年9月19日。
- 学习场景标签的分层特征,Clement Farabet,Camille Couprie,Laurent Najman和Yann LeCun,IEEE模式分析和机器智能汇刊,2013。
- 学习用于视觉识别的卷积特征 Hierachies,Koray Kavukcuoglu,Pierre Sermanet,Y-Lan Boureau,Karol Gregor,Micha?lMathieu和Yann LeCun,神经信息处理系统进展(NIPS 2010),23,2010。
- 格雷夫斯,亚历克斯等人。 “A novel connectionist system for unconstrained handwriting recognition。” Pattern Analysis and Machine Intelligence,IEEE Transactions on 31.5(2009):855-868。
- Cire?an,DC,Meier,U.,Gambardella,LM,&Schmidhuber,J.(2010)。 用于手写数字识别的深,大,简单的神经网络。 神经计算, 22(12),3207-3220。
- Ciresan,Dan,Ueli Meier和JürgenSchmidhuber。 “用于图像分类的多列深度神经网络”, 计算机视觉和模式识别(CVPR),2012年IEEE会议。IEEE,2012。
- Ciresan,D.,Meier,U.,Masci,J.,&Schmidhuber,J。(2011年7月)。 交通标志分类神经网络委员会。 在 神经网络(IJCNN),2011年国际联合会议上(pp。1918-1921 )。IEEE。
-
NLP和言语
-
消除因素和深度变化
-
转移学习和域名适应
-
实用技巧和指南
- “通过防止特征探测器的共同适应改善神经网络。” Hinton,Geoffrey E.等,arXiv预印本arXiv:1207.0580(2012)。
- 关于深度架构梯度训练的实用建议,Yoshua Bengio,U. Montreal,arXiv报告:1206.5533,计算机科学讲义7700,神经网络:交易技巧第二版,编辑:GrégoireMontavon,GenevièveB. Orr ,Klaus-RobertMüller,2012年。
- 由Geoffrey Hinton撰写的һ本关于培训Restricted Boltzmann Machines的实用 指南。
-
稀疏编码
- 通过学习自然图像的稀疏编码,Bruno Olhausen,Nature 1996 发表简单细胞感受野性质。
- Kavukcuoglu,Koray,Marc‘Aurelio Ranzato和Yann LeCun。“ “ arXiv预印本arXiv:1010.3467 (2010)。
- Goodfellow,Ian,Aaron Courville和Yoshua Bengio。“ 大规模特征学习的尖峰和板坯稀疏编码。“ ICML 2012。
- 高效的稀疏编码算法。Honglak Lee,Alexis Battle,Raina Rajat和Andrew Y. Ng。在 NIPS 19,2007. PDF
-
-
基础理论与动机
-
Hinton,Geoffrey E.“确定性Boltzmann学习在加权空间中执行最速下降”, 神经计算 1.1(1989):143-150。
-
Bengio,Yoshua和Samy Bengio。“用多层神经网络建模高维离散数据。” Advances in Neural Information Processing Systems 12(2000):400-406。
-
Bengio,Yoshua等人。“深层网络的贪婪分层训练。” 神经信息处理系统的进展 19(2007):153。
-
Bengio,Yoshua,Martin Monperrus和Hugo Larochelle。“流形结构的非局部估计。” Neural Computation 18.10(2006):2509-2528。
-
Hinton,Geoffrey E.和Ruslan R. Salakhutdinov。“用神经网络降低数据的维度”, 科学 313.5786(2006):504-507。
-
Marc‘Aurelio Ranzato,Y.,Lan Boureau和Yann LeCun。“Sparse feature learning for deep belief networks。” Advances in neural information processing systems 20(2007):1185-1192。
-
Bengio,Yoshua和Yann LeCun。“扩大对AI的学习算法”, 大型内核机器 34(2007)。
-
Le Roux,Nicolas和Yoshua Bengio。“限制 玻尔兹曼机器和深层信念网络的表征能力”, Neural Computation 20.6(2008):1631-1649。
-
Sutskever,Ilya和Geoffrey Hinton。“时间 - 内核递归神经网络”, 神经网络 23.2(2010):239-243。
-
Le Roux,Nicolas和Yoshua Bengio。“深层信念网络是紧凑型通用逼近器。” 神经计算 22.8(2010):2192-2207。
-
Bengio,Yoshua和Olivier Delalleau。“关于深层架构的表现力。” 算法学习理论。斯普林格柏林/海德堡,2011年。
-
Montufar,Guido F.和Jason Morton。“产品混合物何时含有混合物产品?” arXiv预印本arXiv:1206.0387 (2012)。
- 蒙图法,圭多,拉斯万帕斯卡努,京仁祖和Yoshua Bengio。“ 关于深度神经网络的线性区域的数量。”arXiv预印本arXiv:1402.1869(2014)。
-
受监督的Feedfoward神经网络
-
大规模深度学习
- 使用大规模无监督学习构建高级功能 Quoc V. Le,Marc‘Aurelio Ranzato,Rajat Monga,Matthieu Devin,Kai Chen,Greg S. Corrado,Jeffrey Dean和Andrew Y. Ng,ICML 2012。
- Bengio,Yoshua等人。“ 神经概率语言模型。“ 机器学习创新 (2006):137-186。具体来说,本文的第3节讨论了异步SGD。
-
-
经常性网络
-
超参数
- “机器学习算法的实用贝叶斯优化”,Jasper Snoek,Hugo Larochelle,Ryan Adams,NIPS 2012。
- 随机搜索超参数优化,James Bergstra和Yoshua Bengio(2012),机器学习研究期刊,13(281-305)。
- 用于超参数优化的算法,James Bergstra,RémyBardenet,Yoshua Bengio和BalázsKégl在:NIPS‘2011,2011。
-
优化
- 使用Hessian-Free优化训练深度和复发性神经网络,James Martens和Ilya Sutskever,神经网络:2012年贸易技巧。
- Schaul,Tom,Sixin Zhang和Yann LeCun。 “没有更多的Pesky学习率。” arXiv预印本arXiv:1206.1106 (2012)。
- Le Roux,Nicolas,Pierre-Antoine Manzagol和Yoshua Bengio。“ Topmoumoute在线自然梯度算法”。 神经信息处理系统(NIPS)。2007年。
- Bordes,Antoine,LéonBottou和Patrick Gallinari。“ SGD-QN:谨慎的准牛顿随机梯度下降 ” ,机器学习研究杂志 10(2009):1737-1754。
- Glorot,Xavier和Yoshua Bengio。 “了解训练深度前馈神经网络的难度。” 国际人工智能与统计学会议论文集(AISTATS‘10)。人工智能与统计学会。2010。
- Glorot,Xavier,Antoine Bordes和Yoshua Bengio。“ 深稀疏整流器网络。“ 第14届国际人工智能与统计学会议论文集。JMLR W&CP卷。卷。15. 2011年。
-
- Hochreiter,Sepp和JürgenSchmidhuber。 “Flat minima。” Neural Computation, 9.1(1997):1-42。
-
Pascanu,Razvan和Yoshua Bengio。“ 重温深层网络的自然梯度。” arXiv预印本arXiv:1301.3584 (2013)。 - Dauphin,Yann N.,Razvan Pascanu,Caglar Gulcehre,Kyunghyun Cho,Surya Ganguli和Yoshua Bengio。“ 识别和攻击高维非凸优化中的鞍点问题。“In Advances in Neural Information Processing Systems ,pp.2933-2941。2014年
-
无监督特征学习
- Salakhutdinov,Ruslan和Geoffrey E. Hinton。 “深玻尔兹曼机器。” 人工智能和统计国际会议论文集。卷。5.第2号。麻省剑桥:麻省理工学院出版社,2009年。
- 关于深信仰网络的Scholarpedia页面。
-
深玻尔兹曼机器
- 深玻耳兹曼机器的有效学习过程,Ruslan Salakhutdinov和Geoffrey Hinton,神经计算2012年8月,24,第8期:1967 - 2006。
- Montavon,Grégoire和Klaus-RobertMüller。“ 深玻耳兹曼机器和中心技巧。“ 神经网络:贸易技巧 (2012):621-637。
- Salakhutdinov,Ruslan和Hugo Larochelle。“ 深玻尔兹曼机器的高效学习。“ 人工智能和统计国际会议。2010。
- Salakhutdinov,Ruslan。 学习深度生成模型。迪斯。多伦多大学,2009年。
-
-
RBMS
原文:https://www.cnblogs.com/noticeable/p/9242674.html