由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - [bssd]深度学习框架比较
相关主题
LSTM 是不是坨屎?问几个神经网络的问题
Facebook的用CNN作翻译怎么性能超过RNN的Facebook也是个Python house啊
深度学习对时间序列数据有什么好办法吗?Re: [BSSD] GTX1080是业余GPU (转载)
胡扯几句什么叫Deep Learning入门前途是光明的,道路是曲折的
有没有做sentiment analysis的,求思路tensorflow lstm 的traing accuracy 总是under 0.1
volta一出,业余玩家都要玩完啦seq-to-seq model的参数share吗?
马工能转数据分析师吗?怎么对付老邢的验证码?
为什么grid search伤人品LSTM对不同长度的sentence是不是用padding是最好办法
相关话题的讨论汇总
话题: 框架话题: br话题: ann话题: kalman话题: dl
进入Programming版参与讨论
1 (共1页)
g****t
发帖数: 31659
1
http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
按此文件的描述,我认为现在的框架还有很大的不足之处。
深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
有三个方向我认为值得注意。
第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
区,其实就是ReLU。现在这方面
的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
法等经验分析知识,都尚未吸收。
第二是神经计算机。在最著名的那本DL书中提及这方面的研究。但是作者没有能力深入
讲解。那个女教授的老师的老师是R.Kalman,他们是从自控出来的AI学者。这就是隔行
如隔山。DL的知识未来会作用于计算机的结构自身,会作用于os,db,
Language。
肯定会消灭一大批的统计科学家和编程人员。
第三是符号计算。所谓神经网络,就是线性和非线性算符的
迭代。线性函数的迭代是多项式。非线性函数的迭代,如果走符号运算,第一步是找线
性展开或者用摄动法。一个最简单例子:
X^2 x*y y 20 = 0
求x以y表示的级数。
那么假如现在右边不是0,而是一个以x为输入的ANN.
怎么做?
或者说一个线性微分算子Lf=ANN(x)怎么做?
多年前我做的软件,解决的是
Lf = T0 T1 ... (x)
这里T是一系列near identity 变换。就是把x变成
x epsilon * x^2*p1 ...
这是Poincare 的技术(包括现代的重整化技术)。
以我的经验来看,符号计算是必须的。但目前看来,尚未出现比Mathematica更强大的
软件工具。
总体而言,我个人是把AI看作established 好用的知识集。
ANN类似于牛顿莱布尼兹的迭代线性化技术,或者poincare
的迭代非线性技术,或者Fourier 的正交化技术,
是一种新的迭代非线性技术,
是对函数或者知识的新的表示方法。
目前的投资量尚未达到使这门技术过度成熟,出现泡沫的地步。现在多数应用主要只是
在人类感知方面。其他方面的应用其实更有空间和经济价值。例如军工方面其实是ANN
人员保持最完整,没有断代和转行问题的实力雄厚的一个幸存者聚集地。
g*******u
发帖数: 3948
2
我觉得 框架没用 好用就行
我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
数据多点, 使劲拟合就行了
我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
所以关键点还是数据 和计算能力
具体框架方法 ,我觉得不占主要部分最多10%
w***g
发帖数: 5958
3
同意。我大部分时间都花在洗数据上。

【在 g*******u 的大作中提到】
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%

d*******r
发帖数: 3299
4
是做Kalman Filter那个老头么?
我看现在自动驾驶,robot的self localization, 还在用Kalman Filter

【在 g****t 的大作中提到】
: http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: 按此文件的描述,我认为现在的框架还有很大的不足之处。
: 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
: 有三个方向我认为值得注意。
: 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
: 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
: 区,其实就是ReLU。现在这方面
: 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
: 法等经验分析知识,都尚未吸收。

w*****r
发帖数: 197
5
这个心态去kaggle肯定不行。。。

【在 g*******u 的大作中提到】
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%

w*****r
发帖数: 197
6
洗数据将是未来马工的主要职责。

【在 w***g 的大作中提到】
: 同意。我大部分时间都花在洗数据上。
g****t
发帖数: 31659
7
KF最早的成功应用是阿婆罗登月计划。
这个历史nasa有报告。github上以前有。code好像也公开了。


: 是做Kalman Filter那个老头么?

: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter



【在 d*******r 的大作中提到】
: 是做Kalman Filter那个老头么?
: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter

g****t
发帖数: 31659
8
框架对产业发展有用。就好比windows推广了计算机技术类似。框架统一以后会有更大
的发展。
有个80-20规律。一个东西的总价值的80%由20%working load造成。20%的价值,例如数
据清洗,占80% working load. 数据清洗价值不高,但是劳动量一定是主要的。


: 同意。我大部分时间都花在洗数据上。



【在 w***g 的大作中提到】
: 同意。我大部分时间都花在洗数据上。
g****t
发帖数: 31659
9
工具好用的话,那你一天可以多拟合20%。效率提高就有竞争优势。
另外现在垂直领域的AI还没有开始。不可能各行各业都几千
gPu的


: 我觉得 框架没用 好用就行

: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合

: 数据多点, 使劲拟合就行了

: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题

: 所以关键点还是数据 和计算能力

: 具体框架方法 ,我觉得不占主要部分最多10%



【在 g*******u 的大作中提到】
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%

d*******r
发帖数: 3299
10
这个知道, 老头子厉害, 名副其实的rocket science

【在 g****t 的大作中提到】
: KF最早的成功应用是阿婆罗登月计划。
: 这个历史nasa有报告。github上以前有。code好像也公开了。
:
:
: 是做Kalman Filter那个老头么?
:
: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
:

相关主题
马工能转数据分析师吗?Facebook也是个Python house啊
为什么grid search伤人品Re: [BSSD] GTX1080是业余GPU (转载)
问几个神经网络的问题前途是光明的,道路是曲折的
进入Programming版参与讨论
g*******u
发帖数: 3948
11
那应该是什么心态?

【在 w*****r 的大作中提到】
: 这个心态去kaggle肯定不行。。。
w***g
发帖数: 5958
12
苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
上去了。只要能提高分数,换框架就换框架。
我最近干了三个晚上,竟然连0.01都提高不上去。

【在 g*******u 的大作中提到】
: 那应该是什么心态?
g*******u
发帖数: 3948
13
我很同意。别看不起土办法 哈哈。
话说你们做 kaggle 是为了什么? 能挣钱吗?

【在 w***g 的大作中提到】
: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
: 上去了。只要能提高分数,换框架就换框架。
: 我最近干了三个晚上,竟然连0.01都提高不上去。

g*******u
发帖数: 3948
14
现在什么框架啊?
我现在觉得 xgbost或者 lgb就很好用啊
其他的 DL的 框架 keras 我打算试试
然后就攒数据 然后就是看大家新用什么我就准备用啥
不打算自己花时间验证, 别人验证完的 我在用
w***g
发帖数: 5958
15
做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。
不过能带来挣钱的机会。另外就是跟进技术。
还有就是特别好玩。刷进去了欲罢不能。

【在 g*******u 的大作中提到】
: 我很同意。别看不起土办法 哈哈。
: 话说你们做 kaggle 是为了什么? 能挣钱吗?

g****t
发帖数: 31659
16
Kalman不是工程人员。他和发明动态规划的bellman,以及做变分法最优控制的苏联人
类似,
是数学控制论的鼻祖。
从他们60年代的报告开始,国际数学大会4年一次,现在还有个控制论的sector.
这是宗师遗德,留给后人饭碗。
工程上最厉害的是同时发明Kalman filtering的一个雷达界的
宗师。人没有争优先权,自己开了个公司。现在雷达学界大奖是以他为命名的。


: 这个知道, 老头子厉害, 名副其实的rocket science



【在 d*******r 的大作中提到】
: 这个知道, 老头子厉害, 名副其实的rocket science
g****t
发帖数: 31659
17
换新机器吧
工具是王道
人的智慧有涯啊
不用新工具,怠亦,lol


: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就

: 上去了。只要能提高分数,换框架就换框架。

: 我最近干了三个晚上,竟然连0.01都提高不上去。



【在 w***g 的大作中提到】
: 做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。
: 不过能带来挣钱的机会。另外就是跟进技术。
: 还有就是特别好玩。刷进去了欲罢不能。

x********o
发帖数: 2092
18
哪道题?

【在 w***g 的大作中提到】
: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
: 上去了。只要能提高分数,换框架就换框架。
: 我最近干了三个晚上,竟然连0.01都提高不上去。

w***g
发帖数: 5958
19
语音识别

:哪道题?
h**********c
发帖数: 4120
20
你说了一堆名人,那么你又说DP,那么DP在时间空间是怎么做到有限的?
An algorithm is an effective method that can be expressed within a finite
amount of space and time[1] and in a well-defined formal language[2] for
calculating a function.
相关主题
tensorflow lstm 的traing accuracy 总是under 0.1LSTM对不同长度的sentence是不是用padding是最好办法
seq-to-seq model的参数share吗?请教:关于sentence classification
怎么对付老邢的验证码?[bssd]Golang还不错
进入Programming版参与讨论
h**********c
发帖数: 4120
21
[33]被广泛引用,作为例证,见证奇迹。
那么,
当初学computational geometry,实际笔迹鉴定还是用spline inerpolation.
我个人一个见证,我寄给加州DMV一张支票,被USPS的工作人员盗用,然后修改了金额
,在美国银行无争议使用,后来是我自己打电话争议。
你的这些框架,能起倒什么作用。
LeCun et al., "Backpropagation Applied to Handwritten Zip Code Recognition,
" Neural Computation, 1, pp. 541–551, 1989.

【在 g****t 的大作中提到】
: http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: 按此文件的描述,我认为现在的框架还有很大的不足之处。
: 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
: 有三个方向我认为值得注意。
: 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
: 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
: 区,其实就是ReLU。现在这方面
: 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
: 法等经验分析知识,都尚未吸收。

g****t
发帖数: 31659
22
http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
按此文件的描述,我认为现在的框架还有很大的不足之处。
深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
有三个方向我认为值得注意。
第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
区,其实就是ReLU。现在这方面
的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
法等经验分析知识,都尚未吸收。
第二是神经计算机。在最著名的那本DL书中提及这方面的研究。但是作者没有能力深入
讲解。那个女教授的老师的老师是R.Kalman,他们是从自控出来的AI学者。这就是隔行
如隔山。DL的知识未来会作用于计算机的结构自身,会作用于os,db,
Language。
肯定会消灭一大批的统计科学家和编程人员。
第三是符号计算。所谓神经网络,就是线性和非线性算符的
迭代。线性函数的迭代是多项式。非线性函数的迭代,如果走符号运算,第一步是找线
性展开或者用摄动法。一个最简单例子:
X^2 x*y y 20 = 0
求x以y表示的级数。
那么假如现在右边不是0,而是一个以x为输入的ANN.
怎么做?
或者说一个线性微分算子Lf=ANN(x)怎么做?
多年前我做的软件,解决的是
Lf = T0 T1 ... (x)
这里T是一系列near identity 变换。就是把x变成
x epsilon * x^2*p1 ...
这是Poincare 的技术(包括现代的重整化技术)。
以我的经验来看,符号计算是必须的。但目前看来,尚未出现比Mathematica更强大的
软件工具。
总体而言,我个人是把AI看作established 好用的知识集。
ANN类似于牛顿莱布尼兹的迭代线性化技术,或者poincare
的迭代非线性技术,或者Fourier 的正交化技术,
是一种新的迭代非线性技术,
是对函数或者知识的新的表示方法。
目前的投资量尚未达到使这门技术过度成熟,出现泡沫的地步。现在多数应用主要只是
在人类感知方面。其他方面的应用其实更有空间和经济价值。例如军工方面其实是ANN
人员保持最完整,没有断代和转行问题的实力雄厚的一个幸存者聚集地。
g*******u
发帖数: 3948
23
我觉得 框架没用 好用就行
我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
数据多点, 使劲拟合就行了
我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
所以关键点还是数据 和计算能力
具体框架方法 ,我觉得不占主要部分最多10%
w***g
发帖数: 5958
24
同意。我大部分时间都花在洗数据上。

【在 g*******u 的大作中提到】
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%

d*******r
发帖数: 3299
25
是做Kalman Filter那个老头么?
我看现在自动驾驶,robot的self localization, 还在用Kalman Filter

【在 g****t 的大作中提到】
: http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: 按此文件的描述,我认为现在的框架还有很大的不足之处。
: 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
: 有三个方向我认为值得注意。
: 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
: 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
: 区,其实就是ReLU。现在这方面
: 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
: 法等经验分析知识,都尚未吸收。

w*****r
发帖数: 197
26
这个心态去kaggle肯定不行。。。

【在 g*******u 的大作中提到】
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%

w*****r
发帖数: 197
27
洗数据将是未来马工的主要职责。

【在 w***g 的大作中提到】
: 同意。我大部分时间都花在洗数据上。
g****t
发帖数: 31659
28
KF最早的成功应用是阿婆罗登月计划。
这个历史nasa有报告。github上以前有。code好像也公开了。


: 是做Kalman Filter那个老头么?

: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter



【在 d*******r 的大作中提到】
: 是做Kalman Filter那个老头么?
: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter

g****t
发帖数: 31659
29
框架对产业发展有用。就好比windows推广了计算机技术类似。框架统一以后会有更大
的发展。
有个80-20规律。一个东西的总价值的80%由20%working load造成。20%的价值,例如数
据清洗,占80% working load. 数据清洗价值不高,但是劳动量一定是主要的。


: 同意。我大部分时间都花在洗数据上。



【在 w***g 的大作中提到】
: 同意。我大部分时间都花在洗数据上。
g****t
发帖数: 31659
30
工具好用的话,那你一天可以多拟合20%。效率提高就有竞争优势。
另外现在垂直领域的AI还没有开始。不可能各行各业都几千
gPu的


: 我觉得 框架没用 好用就行

: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合

: 数据多点, 使劲拟合就行了

: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题

: 所以关键点还是数据 和计算能力

: 具体框架方法 ,我觉得不占主要部分最多10%



【在 g*******u 的大作中提到】
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%

相关主题
求教:matlab (转载)Facebook的用CNN作翻译怎么性能超过RNN的
问个简单算法。深度学习对时间序列数据有什么好办法吗?
LSTM 是不是坨屎?胡扯几句什么叫Deep Learning入门
进入Programming版参与讨论
d*******r
发帖数: 3299
31
这个知道, 老头子厉害, 名副其实的rocket science

【在 g****t 的大作中提到】
: KF最早的成功应用是阿婆罗登月计划。
: 这个历史nasa有报告。github上以前有。code好像也公开了。
:
:
: 是做Kalman Filter那个老头么?
:
: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
:

g*******u
发帖数: 3948
32
那应该是什么心态?

【在 w*****r 的大作中提到】
: 这个心态去kaggle肯定不行。。。
w***g
发帖数: 5958
33
苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
上去了。只要能提高分数,换框架就换框架。
我最近干了三个晚上,竟然连0.01都提高不上去。

【在 g*******u 的大作中提到】
: 那应该是什么心态?
g*******u
发帖数: 3948
34
我很同意。别看不起土办法 哈哈。
话说你们做 kaggle 是为了什么? 能挣钱吗?

【在 w***g 的大作中提到】
: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
: 上去了。只要能提高分数,换框架就换框架。
: 我最近干了三个晚上,竟然连0.01都提高不上去。

g*******u
发帖数: 3948
35
现在什么框架啊?
我现在觉得 xgbost或者 lgb就很好用啊
其他的 DL的 框架 keras 我打算试试
然后就攒数据 然后就是看大家新用什么我就准备用啥
不打算自己花时间验证, 别人验证完的 我在用
w***g
发帖数: 5958
36
做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。
不过能带来挣钱的机会。另外就是跟进技术。
还有就是特别好玩。刷进去了欲罢不能。

【在 g*******u 的大作中提到】
: 我很同意。别看不起土办法 哈哈。
: 话说你们做 kaggle 是为了什么? 能挣钱吗?

g****t
发帖数: 31659
37
Kalman不是工程人员。他和发明动态规划的bellman,以及做变分法最优控制的苏联人
类似,
是数学控制论的鼻祖。
从他们60年代的报告开始,国际数学大会4年一次,现在还有个控制论的sector.
这是宗师遗德,留给后人饭碗。
工程上最厉害的是同时发明Kalman filtering的一个雷达界的
宗师。人没有争优先权,自己开了个公司。现在雷达学界大奖是以他为命名的。


: 这个知道, 老头子厉害, 名副其实的rocket science



【在 d*******r 的大作中提到】
: 这个知道, 老头子厉害, 名副其实的rocket science
g****t
发帖数: 31659
38
换新机器吧
工具是王道
人的智慧有涯啊
不用新工具,怠亦,lol


: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就

: 上去了。只要能提高分数,换框架就换框架。

: 我最近干了三个晚上,竟然连0.01都提高不上去。



【在 w***g 的大作中提到】
: 做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。
: 不过能带来挣钱的机会。另外就是跟进技术。
: 还有就是特别好玩。刷进去了欲罢不能。

x********o
发帖数: 2092
39
哪道题?

【在 w***g 的大作中提到】
: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
: 上去了。只要能提高分数,换框架就换框架。
: 我最近干了三个晚上,竟然连0.01都提高不上去。

w***g
发帖数: 5958
40
语音识别

:哪道题?
相关主题
有没有做sentiment analysis的,求思路为什么grid search伤人品
volta一出,业余玩家都要玩完啦问几个神经网络的问题
马工能转数据分析师吗?Facebook也是个Python house啊
进入Programming版参与讨论
h**********c
发帖数: 4120
41
你说了一堆名人,那么你又说DP,那么DP在时间空间是怎么做到有限的?
An algorithm is an effective method that can be expressed within a finite
amount of space and time[1] and in a well-defined formal language[2] for
calculating a function.
h**********c
发帖数: 4120
42
[33]被广泛引用,作为例证,见证奇迹。
那么,
当初学computational geometry,实际笔迹鉴定还是用spline inerpolation.
我个人一个见证,我寄给加州DMV一张支票,被USPS的工作人员盗用,然后修改了金额
,在美国银行无争议使用,后来是我自己打电话争议。
你的这些框架,能起倒什么作用。
LeCun et al., "Backpropagation Applied to Handwritten Zip Code Recognition,
" Neural Computation, 1, pp. 541–551, 1989.

【在 g****t 的大作中提到】
: http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: 按此文件的描述,我认为现在的框架还有很大的不足之处。
: 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
: 有三个方向我认为值得注意。
: 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
: 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
: 区,其实就是ReLU。现在这方面
: 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
: 法等经验分析知识,都尚未吸收。

g****t
发帖数: 31659
43
https://arxiv.org/pdf/1902.04106.pdf
Finally, appears a paper about ANN and near identity transformation in the
perturbation area.

【在 g****t 的大作中提到】
: http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
: 按此文件的描述,我认为现在的框架还有很大的不足之处。
: 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
: 有三个方向我认为值得注意。
: 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
: 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
: 区,其实就是ReLU。现在这方面
: 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
: 法等经验分析知识,都尚未吸收。

1 (共1页)
进入Programming版参与讨论
相关主题
请教:关于sentence classification有没有做sentiment analysis的,求思路
[bssd]Golang还不错volta一出,业余玩家都要玩完啦
求教:matlab (转载)马工能转数据分析师吗?
问个简单算法。为什么grid search伤人品
LSTM 是不是坨屎?问几个神经网络的问题
Facebook的用CNN作翻译怎么性能超过RNN的Facebook也是个Python house啊
深度学习对时间序列数据有什么好办法吗?Re: [BSSD] GTX1080是业余GPU (转载)
胡扯几句什么叫Deep Learning入门前途是光明的,道路是曲折的
相关话题的讨论汇总
话题: 框架话题: br话题: ann话题: kalman话题: dl