Deep Learning 优化方法总结
Stochastic Gradient Descent (SGD)SGD的参数在使用随机梯度下降(SGD)的学习方法时,一般来说有以下几个可供调节的参数: Learning Rate 学习率 Weight Decay 权值
Stochastic Gradient Descent (SGD)SGD的参数在使用随机梯度下降(SGD)的学习方法时,一般来说有以下几个可供调节的参数: Learning Rate 学习率 Weight Decay 权值
级联PCA filters Network,这篇paper让我们反思层次结构的重要性,也是DL的核心理念。 Abstract: 基于PCA的DL Network PCA + binary hashing + block-wise histograms PCA 是滤波器 RandN
CNN Pooling 层的改进,以及用回归预测 object 位置。 Abstract本文利用ConvNets整合了classification, localization, detection。利用multi-scale和sliding window与ConvNets结合达到
本文根据半年来对相关资料以及实验操作的实际体会总结而成。限于本人知识经验局限性,难免有理解错误之处。然而还是把一些不太成熟的想法写了下来。最近对整个CNN的形成有了一个模糊的框架,隐约感觉以下3篇还有下面涉及到或没有涉及但我看过的文章都有深层的联系。可能由于知识有限,表达可能不尽
Torch7: A Matlab-like Environment for Machine LearningWhy not Python? It is hard to talk about a language without starting a flame war. Whil
Torch7 代码入门级介绍代码地址:https://github.com/torch/tutorials 网站地址:http://code.madbits.com/wiki/doku.php?id=starttorch-tutorials 是网上不多的有关torch7的demo