由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 几十层的神经网络用小机器能不能训练出来?
相关主题
机器学习的分类:这两个算法有什么本质的不同?同时train segm和obj detect
神经网络识别多个目标请问下deep learning中hidden layers的含义
lightroom请科普下双路deep learningMachin learning is hype
神经网络的开窍现象新技术
Facebook’s AI tech mimics how humans learnRe: [BSSD] GTX1080是业余GPU (转载)
keras or tensorflow2天撸了个手写体数字识别程序
想上手deep learning的看过来小妹请教一下,CS229和Coursera上的ML课哪个更好
向做Deeplearning的同学们请教个问题。what's mathmematical formula of Deep Learning?
相关话题的讨论汇总
话题: networks话题: deep话题: batch话题: layers话题: 小机
进入Programming版参与讨论
1 (共1页)
k****f
发帖数: 3794
1
手头只有一个2g的750ti,随便跑一下,就说内存不够了,难道只能上12g以上显卡?
w***g
发帖数: 5958
2
设batch = 1试试

【在 k****f 的大作中提到】
: 手头只有一个2g的750ti,随便跑一下,就说内存不够了,难道只能上12g以上显卡?
k****f
发帖数: 3794
3
用了,还是一样内存不够。
有可能参数空间太大了,需要修改model

【在 w***g 的大作中提到】
: 设batch = 1试试
l*******m
发帖数: 1096
4
试试这个
https://github.com/dmlc/mxnet-memonger

【在 k****f 的大作中提到】
: 用了,还是一样内存不够。
: 有可能参数空间太大了,需要修改model

j********g
发帖数: 61
5
batch = 1 很难收敛。

【在 w***g 的大作中提到】
: 设batch = 1试试
L****8
发帖数: 3938
6
momentom 加大?

【在 j********g 的大作中提到】
: batch = 1 很难收敛。
c*******9
发帖数: 9032
7
什么应用要这么多层?

【在 k****f 的大作中提到】
: 手头只有一个2g的750ti,随便跑一下,就说内存不够了,难道只能上12g以上显卡?
k****f
发帖数: 3794
8
玩玩ms coco,数据很多

【在 c*******9 的大作中提到】
: 什么应用要这么多层?
w***g
发帖数: 5958
9
我遇到的dataset都是很小的, 多的也就几百个图片,
都是batch = 1训练FCN. 如果图片尺寸不一样,
只能是batch = 1. 训练数据少层数太深参数太多也不行.

【在 j********g 的大作中提到】
: batch = 1 很难收敛。
j********g
发帖数: 61
10
尺寸不一样的怎么直接放进去train? padding?

【在 w***g 的大作中提到】
: 我遇到的dataset都是很小的, 多的也就几百个图片,
: 都是batch = 1训练FCN. 如果图片尺寸不一样,
: 只能是batch = 1. 训练数据少层数太深参数太多也不行.

w***g
发帖数: 5958
11
尺寸不一样没事. forward之前系统会自动resize各种内存.
Caffe和tensorflow都支持. 你看眼FCN就知道.

【在 j********g 的大作中提到】
: 尺寸不一样的怎么直接放进去train? padding?
w*******e
发帖数: 1588
12
"Although multi-layer neural networks with many layers can represent deep
circuits, training deep networks has always been seen as somewhat of a
challenge. Until very recently, empirical studies often found that deep
networks generally performed no better, and often worse, than neural
networks with one or two hidden layers."
Bengio, Y. & LeCun, Y., 2007. Scaling learning algorithms towards AI. Large-
Scale Kernel Machines, (1), pp.1-41.
1 (共1页)
进入Programming版参与讨论
相关主题
what's mathmematical formula of Deep Learning?Facebook’s AI tech mimics how humans learn
[bssd] Neural network as a programming languagekeras or tensorflow
请教:关于sentence classification想上手deep learning的看过来
请推荐java 机器学习库 。。。向做Deeplearning的同学们请教个问题。
机器学习的分类:这两个算法有什么本质的不同?同时train segm和obj detect
神经网络识别多个目标请问下deep learning中hidden layers的含义
lightroom请科普下双路deep learningMachin learning is hype
神经网络的开窍现象新技术
相关话题的讨论汇总
话题: networks话题: deep话题: batch话题: layers话题: 小机