g********7 发帖数: 1145 | |
C*****5 发帖数: 8812 | |
s***d 发帖数: 15421 | 3 别这么说 图像处理 现在用了很多机器学习算法。上次斯坦福某大牛 讲了很多 可能可
以解决 很多很多问题。dl 处理图像 和人闹类似 比机械的算法比如color
calibration 能提高很多
★ 发自iPhone App: ChineseWeb 11
【在 C*****5 的大作中提到】 : 现在都deep learning了。
|
f****y 发帖数: 243 | 4 有paper没。。。
【在 s***d 的大作中提到】 : 别这么说 图像处理 现在用了很多机器学习算法。上次斯坦福某大牛 讲了很多 可能可 : 以解决 很多很多问题。dl 处理图像 和人闹类似 比机械的算法比如color : calibration 能提高很多 : : ★ 发自iPhone App: ChineseWeb 11
|
i*****t 发帖数: 24265 | |
g****t 发帖数: 31659 | 6 VR不是正热门的吗。
【在 g********7 的大作中提到】 : rt
|
g****t 发帖数: 31659 | 7 动车,欢迎来我们EE板串门
【在 C*****5 的大作中提到】 : 现在都deep learning了。
|
t*****e 发帖数: 666 | 8 deep learning的数学模型怎么建立?
图像处理都是建立在信息论的基础上,靠的是临近像素的相关性和前后几张图片的相关
性。
【在 C*****5 的大作中提到】 : 现在都deep learning了。
|
|
i*****t 发帖数: 24265 | |
s***d 发帖数: 15421 | 10 最早ee的人搞得,模型和现在比比较简单, cs的人发扬光大,10+的 神经网络拟合.
【在 i*****t 的大作中提到】 : DL到底算CS还是EE?
|
|
|
t*****e 发帖数: 666 | 11 能不能展开说说,之前硕士的时候跟着老师也弄了一小会视频和图像的处理。
图像的识别我所知道的很大程度上需要 edge detection,因为图像难以用数学模型表
达。所以靠的都是跟周围像素的比较,最简单就是减法,但是这个做法过于粗糙,所以
就有了根据图像动态特征适用的滤波器。
但是算起来比较耗时间,而且也不是100%准,最根本的就是图像不能用数学建模。
这个神经网络拟合有什么本质的突破吗?
【在 s***d 的大作中提到】 : 最早ee的人搞得,模型和现在比比较简单, cs的人发扬光大,10+的 神经网络拟合.
|
f****y 发帖数: 243 | 12 DL也没法数学建模的。。。说到底还是统计推断。。。只不过,这次的神经网络层数多
了,相当于用了好大好大一个模型架构,然后,调参。。。
这么大模型咋调参呢?大数据!通过大量数据来拟合这个巨型模型。。。
以前深度的神经网络没法训练的。。。现在提了各种方法,使得深层次的神经网络能训
练了。。。
反正我觉得说到底就是个统计推断。。。还没啥数值稳定性。。。
【在 t*****e 的大作中提到】 : 能不能展开说说,之前硕士的时候跟着老师也弄了一小会视频和图像的处理。 : 图像的识别我所知道的很大程度上需要 edge detection,因为图像难以用数学模型表 : 达。所以靠的都是跟周围像素的比较,最简单就是减法,但是这个做法过于粗糙,所以 : 就有了根据图像动态特征适用的滤波器。 : 但是算起来比较耗时间,而且也不是100%准,最根本的就是图像不能用数学建模。 : 这个神经网络拟合有什么本质的突破吗?
|
C*****5 发帖数: 8812 | 13 深度神经网络的理论基础还有待完善,但是常用于图像分析的ConvNet的前几层做的就
是edge detection和feature extraction,这个东西最美妙的地方就是用到的数学概念
极其简单,懂微分和一点基本的线性代数和统计(任何理工科大学生,甚至生物系的学
生都应该会的)就能理解
神经网络的基本原理。其实这也好理解,Convnet是神经网络里最接近人脑视觉系统的
模型,感光细胞和神经元的结构决定了不可能是很复杂的数学表达。
【在 t*****e 的大作中提到】 : 能不能展开说说,之前硕士的时候跟着老师也弄了一小会视频和图像的处理。 : 图像的识别我所知道的很大程度上需要 edge detection,因为图像难以用数学模型表 : 达。所以靠的都是跟周围像素的比较,最简单就是减法,但是这个做法过于粗糙,所以 : 就有了根据图像动态特征适用的滤波器。 : 但是算起来比较耗时间,而且也不是100%准,最根本的就是图像不能用数学建模。 : 这个神经网络拟合有什么本质的突破吗?
|
C*****5 发帖数: 8812 | 14 赫赫,又见面了。
【在 g****t 的大作中提到】 : 动车,欢迎来我们EE板串门
|
m*****h 发帖数: 2292 | 15 没大数据的场合DL就没啥用
【在 f****y 的大作中提到】 : DL也没法数学建模的。。。说到底还是统计推断。。。只不过,这次的神经网络层数多 : 了,相当于用了好大好大一个模型架构,然后,调参。。。 : 这么大模型咋调参呢?大数据!通过大量数据来拟合这个巨型模型。。。 : 以前深度的神经网络没法训练的。。。现在提了各种方法,使得深层次的神经网络能训 : 练了。。。 : 反正我觉得说到底就是个统计推断。。。还没啥数值稳定性。。。
|
f****y 发帖数: 243 | 16 用了大数据之后,数值稳定性估计是糟的一塌糊涂。。。
:没大数据的场合DL就没啥用
: |
C*****5 发帖数: 8812 | 17 deep net虽然不能理论上保证一定收敛在global minimum, 但是大数据实践显示deep
net存在很多差不多的local minimum,所以大多结果都挺好。理论上有待证明,但是so
far用起来挺好。
【在 f****y 的大作中提到】 : 用了大数据之后,数值稳定性估计是糟的一塌糊涂。。。 : : :没大数据的场合DL就没啥用 : :
|
f****y 发帖数: 243 | 18 这个证明有办法做?
:deep net虽然不能理论上保证一定收敛在global minimum, 但是大数据实践显示deep
:net存在很多差不多的local minimum,所以大多结果都挺好。理论上有待证明,但是
so far用起来挺好。 |
C*****5 发帖数: 8812 | 19 我是没有研究那么深啦,但是上次看某大牛的视频好像提到过。反正实践上deep net
training现在就是搞尽量多的数据,用GPUs+hadoop,开始总归有不收敛或者收敛太慢
的问题,慢慢调参数总能调出来的。
deep
【在 f****y 的大作中提到】 : 这个证明有办法做? : : :deep net虽然不能理论上保证一定收敛在global minimum, 但是大数据实践显示deep : :net存在很多差不多的local minimum,所以大多结果都挺好。理论上有待证明,但是 : so far用起来挺好。
|
f****y 发帖数: 243 | 20 。。。。。。蛋疼
:我是没有研究那么深啦,但是上次看某大牛的视频好像提到过。反正实践上deep net
:training现在就是搞尽量多的数据,用GPUs+hadoop,开始总归有不收敛或者收敛太慢 |
C*****5 发帖数: 8812 | 21 数学不需要多漂亮,关键4是要有用。我知道很多传统产业公司都在开始搞DL,只要好
用,越简单暴力越好,不差钱。用DL,连复变函数都不懂的人可以做出牛X的图像处理
应用。
net
太慢
【在 f****y 的大作中提到】 : 。。。。。。蛋疼 : : :我是没有研究那么深啦,但是上次看某大牛的视频好像提到过。反正实践上deep net : :training现在就是搞尽量多的数据,用GPUs+hadoop,开始总归有不收敛或者收敛太慢
|