|
|
|
r***r 发帖数: 2077 | 4 对了,还有free也震出来了,留在手里的aria,himx,SCTY倒还是红艳艳个红哎。
深刻反省中 |
|
d*****d 发帖数: 10658 | 5 冷静一下,人这个时候很容易再去追,被套概率很大。 |
|
|
h*********r 发帖数: 2844 | 7 真正的牛股,千万别设stop,当然必须是真正的牛股,是那种你晚上激动的睡不着,想
起来买的股。 |
|
a*****e 发帖数: 16445 | 8 错过了,要总结,为什么会错过。牛股的话,买入就不用出来了,跌就慢慢加。或者高
抛低吸。至于如何认定牛股,这个靠经验和感觉,也没人能次次都对。 |
|
|
r***r 发帖数: 2077 | 10 谢大鸟和版主指点。
我想还是应该盯着PLUG和FCEL二个小摇钱树吧 |
|
l*****n 发帖数: 1648 | 11 前天1.31买了1000股rnn,今天早上1.38卖了。 |
|
|
d**********6 发帖数: 4434 | 13 R*[email protected]
TSLA@210
FB@60
快3周了,闷死我了。不过NUGT@40 和ddd@60,还在水下。 |
|
|
|
|
Q***k 发帖数: 1419 | 17 what do you mean? long or short? |
|
|
|
|
k****h 发帖数: 944 | 21 AMBA, Pay, artx, fnb, xoma, rnn. |
|
C*****5 发帖数: 8812 | 22 不好直接在你的帖子里回,理由请问不要脸偷窥网友IP的老马(Forbes)。建议看看
deep learning,用RNN做股票预测挺流行的。比较主流的的Theano和Tensorflow都有
python的API。 |
|
C*****5 发帖数: 8812 | 23 语音的用CNN + RNN组合效果挺好的。识别率可以到99%。
layer |
|
l********7 发帖数: 2974 | 24 作为佐证DNN(这里你提到的LSTM-RNN)不是写小说的唯一银弹,甚至最简单的Markov
-chain Model都可能写出好玩的“小说”,这个是很古老的了,比如可以参见:
Kernighan & Pike“he Practice of Programming” |
|
C*****5 发帖数: 8812 | 25 那个其实也只是介绍了forward/backward prop和gradient descent的基本概念,而且
都是shallow network,深的常用的cnn,rnn好像都没讲到。 |
|
l********7 发帖数: 2974 | 26 赞“深度学习”提出者
赞深度女大提出者
赞几百个深度隐藏的投资概念拥有者
顺便问一句,既然你第一个提出了“深度学习”的概念,你到底提出了CNN,LSTM,DBM
,RBM,DBN,SAE,DQN, EDN 或者 RNN、MKM 中的哪一个啊?同时说说你在理论上怎
么解决了DNN 的 VG 这个问题的呢?
赞深度自恋。。。LOL! |
|
C*****5 发帖数: 8812 | 27 auto encoder 其实实际应用不多,工业界用的多的貌似多是CNN,RNN衍生出来的模型 |
|
|
发帖数: 1 | 29 跟上1000股试试,看看这次FDA有戏没有..
二楼拍砖吧 |
|
f****e 发帖数: 1521 | 30 好兄弟 要market close之前发啊 好跟! |
|
|
发帖数: 1 | 32 这。。晚了啊。前一段跟荐小药股的大牛买了点RNN,结果套了一个月,最近割了。不
敢妄动了啊 |
|
发帖数: 1 | 33 真服了,rnn我拿了一个多月都不怎么动,前两天刚卖今天就涨了十几个点!我日了… |
|
发帖数: 1 | 34 这个RNN真的是听刚牛喊了上车的,结果第一个就不顺,套了一个月,怕了呀 |
|
发帖数: 1 | 35 rnn不敢搞啦,阴了1个月。。还是跟进别的吧watt搞两股试试 |
|
发帖数: 1 | 36 哈哈,乱搞,回去读手册
再过一周你再看看RNN得价格,然后再比较一下你得进货价
然后你可以写一个帖子 |
|
m********u 发帖数: 3942 | 37 【 以下文字转载自 JobHunting 讨论区 】
发信人: missingyou (miss), 信区: JobHunting
标 题: Deep Learning Research Engineer /Data Scientist
发信站: BBS 未名空间站 (Wed Sep 6 22:08:02 2017, 美东)
地点硅谷,站内或者邮件 [email protected]
要求:
- PhD+ 2年或以上经验
- 对Deep Learning (CNN/DNN/RNN/etc) 有深入了解
- 偏和产品研发相关的Research (非以论文专利等为导向那种纯研究)/前期建模/工
程实现
应用方向: (符合其一即可)
- 手机Camera /Computer Vision/Camera ISP pre-processing & post-procussing
(成像前端盒后端处理,i.e.图片/Video质量优化etc.)
- Big Data (用户数据,系统后台数据,手机移动在线数据, 用于推荐/Location-
based service/用户行为分... 阅读全帖 |
|
T*****u 发帖数: 7103 | 38 有啊,RNN,hopfield啥的。你还说你读书少?刀刀见血啊。 |
|
j*****y 发帖数: 2042 | 39 【 以下文字转载自 Military 讨论区 】
发信人: jewelry (珠宝狼), 信区: Military
标 题: 穆巴拉克就是人渣啊
发信站: BBS 未名空间站 (Sun Jan 30 20:29:37 2011, 美东)
现在让警察扮成平民到处放火抢劫,为军队镇压制造口实。
以下是转载----
民眾自動自發維持平和秩序。暴徒很難得逞。
@老武老武:请大家注意这个消息:半岛电视台又一次接到埃及广场示威的群众报料,
从“暴徒”身上搜出了警察的身份证件。 原文转发(30)|原文评论(12)
【直播埃及】RNN:一名示威者说:我的一个儿子已经为了这次示威的烈士,而我已经准
备好牺牲我的另外俩个儿子,直到穆巴拉克下台!2. 半岛台:亚历山大市有几所警察局
被点燃了.3.半岛亚历山大记者:有几千人在街道上示威。
執政黨官員接受訪問,說大多數的埃及人希望穆巴拉克留任,記者問那些人在哪裡,黨
員說埃及到處都是幾百萬人。記者問沒有看到他們表態,官員說,因為他們是好公民都
留在家裡。記者問如果這樣,穆巴拉克為什麼在30年之後的現在才任命副總統,那官員
沉默了30秒,無法回答。只說以前沒有... 阅读全帖 |
|
l*********g 发帖数: 1899 | 40 记得以前David Cope 那套模拟肖邦和莫扎特风格作曲的EMI系统出来时,有人用过的一
句评语非常有趣,就是:典型的技术进步,文化退步。我认为这句评语用在这个作诗机
器人身上也算恰当。
计算机这种东西如果用于写诗,其最大的强项就是格律的约束的符合性非常好,意思就
是总是能工工整整,看上去很是那么回事,其背后算法主要是基于字符级RNN的各种变
形。但是如果你细品,发现是有“诗感”而无“诗意”。看着像一首诗,但其实想要表
达什么?句子之间的上下文联系都经不起推敲。而且,诗歌本身的模糊性也让计算机作
诗变得可以滥竽充数。
作者:Xiaoran
链接:https://www.zhihu.com/question/39506931/answer/81684795
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。。 |
|
d****o 发帖数: 32610 | 41 你这个要用RNN,现在好像流行LSTM
自己搜个教程研究研究吧 |
|
l******8 发帖数: 1691 | 42 graphical model.
没看你的数据,如果一定要dl的话,根据数据之间的关系,构建cnn或rnn或者两个混合
起来都可以。
其实先直接拿个线性模型看看效果再说啦。 |
|
w***g 发帖数: 5958 | 43 老魏你能不能介绍我加入一下你那个群。我也想看看。
我感觉,如果一个方向有人穷其一生都还没做出满意的结果,那肯定是
攀错科技枝了。就像图像识别,传统的local feature + spatial pyramid,
做死了也就那样,改成CNN直接就突破了。但是NN在图像上有突破,并不
等于放到NLP上也能有同样的突破。目前看来至少RNN能够对传统方法是
有所改进的。 |
|
|
i**********n 发帖数: 217 | 45 强烈不同意说NN是老技术, cnn, rnn 还是很牛。 |
|
|
l*******m 发帖数: 1096 | 47 可能ensemble不够多?cnn上套rnn的? |
|
w***g 发帖数: 5958 | 48 要不你多收集些语料库,比如把全唐诗全宋词都找好,
然后我们搞个RNN训练自动写诗。
这个国内有人做得很不错了,但是自己搞一个肯定还是很有意思的。 |
|
w*******x 发帖数: 489 | 49 我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
展还需要有个突破来解决逻辑处理 也许是某种RNN?
我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
如此大的差别~~~ |
|
w*******x 发帖数: 489 | 50 我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
展还需要有个突破来解决逻辑处理 也许是某种RNN?
我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
如此大的差别~~~ |
|