由买买提看人间百态

topics

全部话题 - 话题: pretrain
(共0页)
l********k
发帖数: 14844
1
来自主题: Military版 - 只有码公才能生存
天生就会,意思就是pretrained network,网络结构和参数已经八九不离十了。生下来
之后,在真实环境中大概训练一下,过几个iteration,很快就可以应付各种需求。
现在的机器学习,一部分靠物理建模,根据第一性定律推导下面会发生什么,然后优化
。另一个路子是靠预先训练好的唯象网络,直接投入实践,进行trial-error微调。第
二个路子是将来发展的方向。
C***1
发帖数: 2264
2
Back extension endurance and strength: the effect of variable-angle roman
chair exercise training.
Verna JL, Mayer JM, Mooney V, Pierra EA, Robertson VL, Graves JE.
U.S. Spine and Sport Foundation, San Diego, California, USA. d*****[email protected]
Abstract
STUDY DESIGN: A pre- and postintervention randomized, controlled trial was
conducted.
OBJECTIVE: To evaluate the effect of progressive resistance exercise
training using a variable-angle Roman chair on the development of lumbar
extensor endurance an... 阅读全帖
y***r
发帖数: 1845
3
http://www.ncbi.nlm.nih.gov/pubmed/20351596
Training with low muscle glycogen enhances fat metabolism in well-trained
cyclists.
Hulston CJ, Venables MC, Mann CH, Martin C, Philp A, Baar K, Jeukendrup AE.
Source
School of Sport and Exercise Sciences, University of Birmingham, Birmingham,
United Kingdom.
Abstract
PURPOSE:
To determine the effects of training with low muscle glycogen on exercise
performance, substrate metabolism, and skeletal muscle adaptation.
METHODS:
Fourteen well-trained cyclis... 阅读全帖
l*******m
发帖数: 1096
4
training还是需要很多资源。希望出现活雷锋,能共享pretrained的models, 这样就屌
丝化了。当然如果商业化收费不高,也有前途
l*******m
发帖数: 1096
5
来自主题: Programming版 - lightroom请科普下双路deep learning
如果要用自己的网络结构,没有pretrained,就要自己训练imagenet, 这个可是GPU越
多越好。对fcn而言,batch size=1, 就是在不同图像大小时比较方便,不过就不能用
batch norm了。其实,使用 patch/crop/pad整成一样大小的batch, 还是会快些,而且
可以用batch norm
当然双路适合折腾,reduce, sync什么的。如果GPU的芯片相同,可能会支持P2P通信,
不用走CPU. 还有如果网络中有batch norm, 为了速度,batch norm一般是local的,但
是反而比单GPU(同步)的性能好一点点,我估计有些ensembling gain

发帖数: 1
6
本来还想找几个好用的CNN pretrained model和kernel来做目标检测或者人脸检测,却
没有看到这样的比赛
现在annotated过的数据不好找,因为是特定行业的图片。
有推荐用clustering的办法么? unsupervised来做
w*****r
发帖数: 197
7
来自主题: Programming版 - 应不应该用pretrain的model
图像应用, 很多人直接用resnet50/101, 套个头, 接着作finetune.
针对一个特定任务, 数据集也足够大, 重新train比用公版model作finetune能够讨多大
好? 谁有一手经验?
貌似现在很多大网络, 如果不用人家已有的model作基础, 根本没办法收敛?
L****8
发帖数: 3938
8
来自主题: Programming版 - 应不应该用pretrain的model
你要识别火星人 那就得重新训练
x****u
发帖数: 44466
9
来自主题: Programming版 - 应不应该用pretrain的model
首先vgg或者resnet是专门针对imagenet设计的结构,如果自己重新train,那么超参数
也要重新寻找,耗时耗利耗钱
个人认为现在pre-trained模型已经足够牛了,微调准确率上不去这多半是别的地方的
问题。
x****u
发帖数: 44466
10
来自主题: Programming版 - 应不应该用pretrain的model
不需要啊
能被人眼识别的火星人,其特征也必然包含在imagenet里面
s******y
发帖数: 28562
11
他们的意思是,神经突触的形成和记忆无关?
Reinstatement of long-term memory following erasure of its behavioral and
synaptic expression in Aplysia
Shanping Chen, Diancai Cai, Kaycey Pearce, Philip Y W Sun, Adam C
Roberts, David L GlanzmanCorresponding Author
DOI: http://dx.doi.org/10.7554/eLife.03896Published November 17, 2014 Cite as eLife 2014;10.7554/eLife.03896 Download PDF
Abstract
Long-term memory (LTM) is believed to be stored in the brain as changes in
synaptic connections. Here, we show that LTM storage... 阅读全帖
y******2
发帖数: 326
12
来自主题: DataSciences版 - 想上手deep learning的看过来
请问大哥,你这个docker里都有啥?我就是装了CUDA toolkit之后直接上的tensorflow
+keras。这里有pretrained network么?
w***g
发帖数: 5958
13
来自主题: DataSciences版 - 想上手deep learning的看过来
没有pretrained network。你已经装好了tensorflow就不用docker了。
用下面的命令装上picpac streaming API就可以train了。
pip install -i https://testpypi.python.org/pypi picpac
我那个train-slim.py里用的是slim预定义的一些network architecture。
keras比直接用tensorflow有啥优势吗?我感觉keras就是个二手贩子,可能
跟不上tensorflow最新的feature。不过你倒是提醒了我,我得加几个
keras和theano的example.

tensorflow
(共0页)