|
w***g 发帖数: 5958 | 2 你说的这个叫cross-correlation。
卷积用负号是为了得到对称性。虽然只是一个符号的差别,
卷积满足交换率结合率,推导起公式来方便得多,
而x. corr.没有这些性质。有的数学现象,用卷积
描述是一个漂亮的公式,能看出来规律。如果用x. corr.
描述就是一堆mess, 看不出来规律。规律其实一直都在,
看不看得出来的差别。
如果是训练神经网络,k还是-k没关系。所以我说
其实神经网络就是一个brutal force pattern matching
with sliding window,本来也是很牛x和普世的东西。
只不过那批人愿意硬套数学概念,叫什么卷积和张量。
上面xiaoju说得对,神经网络的牛x在另一个层次上。
光靠套一个卷积概念,还看不出里面的规律来。
这个规律得发明新的数学概念才能看出来。 |
|
h*******o 发帖数: 145 | 3 设两个序列x1,x2的长度分别为n1,n2,则它们的离散线性卷积可以先分别补零到n1+n2
-1,再做
FFT,频谱相乘,再IFFT,这样得到一个长度为n1+n2-1的卷积结果x3。
这个结果也可以表示为矩阵形式:x3=H*x1,H为(n1+n2-1)*n1的矩阵。
现在我想求离散线性卷积的adjoint operator,即H的转置矩阵,想问下有没有什么快
速的方法求H
的转置(就像求卷积时,采用FFT来做,比用H*x1要快)?
多谢! |
|
q***o 发帖数: 484 | 4 如果求
s1&s2
(&设为卷积运算)
可以用付氏变换先转换到频域,求积后在反付氏变换即可.
那么对应逆卷积的问题(即,s1&s2=ss,现已知s2,ss,求s1)
按道理是可以采用上述相同方法的,只不过把频域的求积
换成求商,现在的问题是,s2变换成频域后,无法保证不出现
0项,进行求商运算的时候就出现'除零'的情况.
请问在这种情况下,如何解决?
另外有没有别的求去卷积的方法?
谢谢. |
|
l********a 发帖数: 1154 | 5 图像处理的卷积就是用卷积核(权矩阵)在图像上滑动,用当前窗口下的图像数据与权矩
阵做算术加权求和的结果作为结果图像的数据,这个过程有时也叫加窗,类似加权的移动
平均(Moving Average).数学上,移动平均可视为一种卷积。 |
|
d*****u 发帖数: 17243 | 6 一般的卷积,其中一个函数必须要反转一下
不管离散还是连续都是这样
但是图像处理里常说的卷积没有反转
楼上说这也可以看成是广义的卷积,也许是如此
不过跟一般的定义还是有差别 |
|
g****t 发帖数: 31659 | 7 傅立叶变换本身就是加权平均。权值是指数衰减信号。
因为三角函数的方程是x''=x
那么通过傅立叶变换,你把一个信号变成了x的线性组合。那么
这个信号也成了一个微分方程定义的信号。那么就
得到了这个信号的产生方程或者generating machine
卷积也是加权平均。都是类似的。
最后就是一些常系数微分方程互相凑。
常系数线性微分方程在这种凑法下,
是封闭的。所以好用,意外不多,容易解决问题。
最后就是矩阵的一些特征根。
我现在不理解的是,一个大的随机矩阵居然特征根稳定了?
: 卷积在这里干嘛的?
: 乘积的傅立叶变换等于傅立叶变换的卷积
|
|
v*******e 发帖数: 11604 | 8 卷积为什么牛?其实不是卷积牛,是层层抽象的神经网络牛(高一层的网络对低一层进
行抽象;低一层对高一层有多对few的关系)。如果是all对all的对应关系,主要困难
是很难训练,反向传播算法不容易收敛。加了卷积,其实是加了束缚关系,在大部分保
留层层抽象的能力的条件下,因为这些束缚关系所以反向传播算法能够进行。
猫的视觉处理也有这些束缚关系,是自然条件带来的。V1层就抽象出短线,它们的角度
等。V2层的抽象又高了一些,比如有各种型状。V4又高了一些。最高层里面就有
grandma cell,就是你看到gradma,这个细胞就兴奋了。这就是你们研究的人工神经网
络的输出层。当然你们研究的一般是这个细胞看到汽车就兴奋。别的细胞看到交通标志
就兴奋。 |
|
y*****g 发帖数: 521 | 9 最近在看卷积,想问一下:
若有个卷积形式的函数f,假设定义在[0,infinity).满足f(0)=0,f(infinity)=0.并且
,f在定义域上的积分为0.
然后我发现这个函数f的变上限积分(一个新函数)还是个卷积,并且还满足上面三个
条件。
那如果f在(0,infinity)上有K个零点,我可不可以说f的变上限积分在(0,infinity)上
有K-1个零点?
我画来画去都觉得是对的,但是不知道有人证明过没。。
而且我不是数学专业的,想google一下相关的文献都不知道该google什么名词好。。。
请数学版大牛赐教!~ |
|
d*******2 发帖数: 340 | 10 【 以下文字转载自 Computation 讨论区 】
发信人: daydayup2 (天天向上), 信区: Computation
标 题: 请问一个卷积的问题
发信站: BBS 未名空间站 (Thu Jan 7 13:43:14 2010, 美东)
如图,为一个函数和一个斜周期梳状函数的卷积,图中函数f(x,y)的横向尺寸比梳状函
数的周期小。请问如果函数f(x,y)的横向尺寸比梳状函数的周期大的话,卷积出来的结果
是怎么回事?
先谢了! |
|
d*****u 发帖数: 17243 | 11 我不是做图像的
看该领域内好多所谓卷积其实就是把一个mask矩阵跟图像各部分逐次做乘法然后加起来
也就是correlation而不是convolution
但是他们也都说是卷积 |
|
b***i 发帖数: 3043 | 12 卷积在这里干嘛的?
乘积的傅立叶变换等于傅立叶变换的卷积 |
|
l********e 发帖数: 12 | 13 假设我有N个离散的随机变量,知道他们的 probability mass function,想得到他们的
和的probability mass function,需要调用matlab的那个函数?
应该使用卷积吧,用哪个函数呢?conv好像不行吧,不知道各个卷积出的值的概率是多
少。
谢谢 |
|
d*******2 发帖数: 340 | 14 我用了kron(x,y)这个函数,老板在论文中加了一句话,说“相当于x和y的卷积”。我
数学太差,没有把握,那位大牛可以证实一下kron确实相当于x和y的卷积吗?
先谢了! |
|
d*******2 发帖数: 340 | 15 如图,为一个函数和一个斜周期梳状函数的卷积,图中函数f(x,y)的横向尺寸比梳状函
数的周期小。请问如果函数f(x,y)的横向尺寸比梳状函数的周期大的话,卷积出来的结果
是怎么回事?
先谢了! |
|
p*********e 发帖数: 48 | 16 一个512*512*256的三维图像跟一个大约31*31的kernel卷积在3GHz的workstation上计
算,要多长时间?在审一篇文章,作者声称他们的算法能在20秒内计算80*4=320次的这
样的卷积。可信吗? |
|
w**a 发帖数: 1024 | 17 【 以下文字转载自 Mathematics 讨论区,原文如下 】
发信人: wxza (wxza), 信区: Mathematics
标 题: 问个卷积问题
发信站: Unknown Space - 未名空间 (Thu Aug 12 02:41:26 2004) WWW-POST
两个离散的序列,x[k],y[k],
y[k]在 0<= k < N 外为0
x[k]的特点是x[-k]=x[k]
现在我要求以下级数(卷积)
c[j]=\sum x[j-k]*y[k], k:0-->(N-1)
怎么利用傅立叶变换求出 c[0],c[1],...c[N-1] ?
我是这么想的,假设x的傅立叶变换是X, y的是Y
那么
傅立叶逆变换{ X*Y } 就是c , 但是我算的总是不对;
numerical recipe上说,要把y wrap around, 我不太理解。
谢谢 |
|
d*******2 发帖数: 340 | 18 如图,为一个函数和一个斜周期梳状函数的卷积,图中函数f(x,y)的横向尺寸比梳状函
数的周期小。请问如果函数f(x,y)的横向尺寸比梳状函数的周期大的话,卷积出来的结果
会有什么不一样?
先谢了! |
|
d*******o 发帖数: 5897 | 19 多谢。再请问下,多个函数的卷积,是不是从左到右地逐对结合就行了?比如
f*g*h*... = (f*g)*h
像前面的例子,如果f,g,h...的表达式都一样,是不是随着卷积函数的个数增多,表达
式会 越来越复杂(非零项越来越多)? |
|
d*******2 发帖数: 340 | 20 如图,为一个函数和一个斜周期梳状函数的卷积,图中函数f(x,y)的横向尺寸比梳状函
数的周期小。请问如果函数f(x,y)的横向尺寸比梳状函数的周期大的话,卷积出来的结果
会有什么不一样?
先谢了! |
|
f**o 发帖数: 12685 | 21 有什么创新吗?
神经网络和卷积都是几十几百年前的 |
|
|
d*******o 发帖数: 5897 | 23 唉,本科学的全忘光了,请牛人指点下,如附件中的f(x)和g(x)的卷积怎么求。我附上
我的解答,但是不是错了呢?谢谢! |
|
|
h*****n 发帖数: 188 | 25 这些mask大部分都是对称的,高通/低通/平均/高斯等等,所以反转无所谓
对于少数的不对称的mask,比如梯度.. 它的物理意义应该并不是卷积,只是简单的左
右相加减而已。 所以也不需要反转。 |
|
d*****u 发帖数: 17243 | 26 这个倒是
不过很多小波变换的kernel不是对称的,或者只在某一方向对称
所以一说是卷积就容易引起误会 |
|
g****t 发帖数: 31659 | 27 不就是加权平均吗。怎么这么神。
张益唐著名论文也是十几层卷积,我一行都看不懂。
不知是不是神经网类似的。 |
|
w*****r 发帖数: 197 | 28 这个好比做菜。卷积网络牛逼在于可以通过菜的最终味道,逆向工程出佐料的比例(
weight),放料的次序(layer),甚至火候(scale)。。。 |
|
x****u 发帖数: 44466 | 29 卷积的没什么神奇的,神奇的是深层次反向传导,一下子就能生成几百亿年进化不出的
参数。
谁都知道几百万个参数能拟合世界一切,函数现成,问题是只有上帝知道这百万个数字
应该是什么。有了DL,你能摸到上帝脚趾头了。 |
|
g****t 发帖数: 31659 | 30 (1)
Coorelation/卷积/乘法 都是移位加法.
我写过汇编乘法,如果reuse code,就能看出来是一样.
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
etc. FFT is more efficient.
随机信号的 time domain correlation
和频率域power density的关系是Einstein发明的.
"Method for the determinination of the statistical values of observations
concerning quantities subject to irregular fluctuations"
只有12个引用,Lol
(2)
CNN 后面几步能不能展开说说,我还没学到... |
|
c*******g 发帖数: 475 | 31 【 以下文字转载自 Macromolecules 讨论区 】
发信人: cooooldog ( b), 信区: Macromolecules
标 题: 版上有没有对调制DSC很熟悉的?请教做解卷积问题
发信站: BBS 未名空间站 (Tue May 4 08:09:39 2010, 北京)
我只是想了解算法, 如何把
调制了的DSC信号,
1.调制的温度;
2.时间
3.调制的热流
分解开为rapid-reversing, non-rapid reversing的部分...
基本的算法是知道的
但是对于计算reversing heat capacity时候的
1.极限校正;baseline correction
2.相差校正; phase lag correction
不是很清楚.
哪位大牛指教一下
2. |
|
b**u 发帖数: 17 | 32 已知二个函数f,g,f有紧支集,g属于L2[0,1],如何用FFT算法求卷积F(x)在[0。1]的值。
怎么把F(x)拓展成周期函数?
3x |
|
P****S 发帖数: 2286 | 33 f(n)**g(n)=IFFT( FFT(f(n)) * FFT(g(n)) )
卷积 ~ O(N*N)
FFT ~ O(N*log(N)) |
|
d*******2 发帖数: 340 | 34 如果x是一个delta函数阵(梳状函数)的话,好像kron(x,y)确实是y和x的卷积.那位大
牛能帮我确认一下吗?
先谢了! |
|
r*****f 发帖数: 247 | 35 假设一个向量 c 长为L,已知c和自己的N点循环卷积(N>L),d=c*c,
如何从d里面还原c?
可以分N<2L-1和N>=2L-1讨论。 |
|
|
d*******o 发帖数: 5897 | 37 唉,本科学的全忘光了,请牛人指点下,如附件中的f(x)和g(x)的卷积怎么求。我附上
我的解答,但是不是错了呢?谢谢! |
|
w**a 发帖数: 1024 | 38 很多时候卷积的计算都是通过傅立叶变换计算的
F.T.
(f*g)(t) <-------> F(w)G(w)
然后再反变换 |
|
d***e 发帖数: 710 | 39 我现在用别人的一个程序求三维图象的
X Y Z方向的偏微分(而且是在不同SCALE的偏微)
(求卷积用的是NR里的FOURN.C)
好象程序里有BUG/以致原点处的微分不是零(图象在那附近都是零)
那位大侠有正确的求三维图象偏微的程序可以分享么?
thanks a TON! |
|
m**********e 发帖数: 12525 | 40 人脸识别,目前只有一种办法,就是卷积
卷积就是求空间相关性,你给定一个人图片,需要发现里面是不是有人脸,
办法就是将这个图片与一个人脸卡通图像卷积,卷积结果就能判断是否有人脸.
卷积的结果不受图像orientation,镜像,扭曲变形的影响,是目前唯一可用的
数学工具
但是卷积有个致命问题,就是只能与已知图像进行空间相关.如果给定图片细节
太多,就会遇到运算瓶颈,所以目前方法是卷积配合其它算法,分步求解,先给个
粗线条图像,再慢慢给出细节.
总之一句话,目前理论上没有除了卷积以外的***任何***数学方法 |
|
t*******e 发帖数: 1633 | 41 1. 6 digits number, each changes from 0 to 9. Find the odds that sum of
first three is the same as the sum of last three.
大牛han6曾给出如下解答, 无奈小弟实在看不懂,哪位高人能出来详细解答一下
另小弟明早Bloomberg onsite, 请各位等我面经
发信人: han6 (周瑜), 信区: JobHunting
标 题: Re: 问几个brain teaser
发信站: BBS 未名空间站 (Tue Sep 28 14:46:27 2010, 美东)
每一个数字都是0~9的iid
一个数字的情况,总和为0~9的方法分别为
1, 1, 1, 1, 1, 1, 1, 1, 1, 1
两个数字的情况,总和为0~18的方法为以上的卷积
1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1
三个数字的情况,总和为0~27的方法为以上的卷积
1, 3, 6, 10, 15, 21, 28, 36, 45, ... 阅读全帖 |
|
t******l 发帖数: 10908 | 42 阿发狗上场曰:“俺 general intellectual 的训练秘诀,就是无数变化 pattern 里
,乱中取胜,拼小时数,卷积卷积再卷积,卷出参数包小笼灌水包就成了。”
然后台下一听众不解的问题,“卷积是个神马高深的玩意儿?”
阿发狗云:“这特么都是数学家搞出来的唬人的词儿,卷积说白了就是啥都看一点而但
啥都不看全。就是古人陶渊明说的 ‘读好书,不求甚解,没有会意,就欣然充电!’
。。。或者现代小资说的 ‘俺滴无心对俺滴有心’。明白了?”
说完,阿发狗就穿着拖鞋在台上演示了一个即兴滑步平衡,顺手拿走一杯星吧,当然
姿势极其粗糙。然后继续说:“看到没有,俺刚才那个即兴滑步喝星吧,俺从来没试过,
今天第一次试,虽然很糙,但还是快糙猛不是?”。。。瞄了一下台下的眼珠子都绿了
的深深蓝,曰 “哥们你也想来一个?”。。。又喝一口星吧,发狗接着说:“台上一糙
步,台下小时数。俺自打出生就在围棋盘上学走路,摔倒无数次。俺还学过围棋蹬三轮,
围棋 monkey bar,围棋狗刨式,围棋蹦蹦车,围棋踢皮球。。。” (还没说完,
台下曰 “这只阿发狗怎么比 Martha Speaks 里面那只还要... 阅读全帖 |
|
m***r 发帖数: 359 | 43 机器学习日报 2015-03-12
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-12/short.html
1) 【中英文维基百科语料上的Word2Vec实验】 by @52nlp
关键词:自然语言处理, 主题模型
中英文维基百科语料上的Word2Vec实验: 最近利用gensim word2vec模块在中英文维基
百科语料上分别测试了一下word2vec,记录一下实验的过程,欢迎观摩 [1]
[1] http://www.52nlp.cn/?p=8198
2) 【extreme learning machines】 by @黄广斌-ELM
关键词:算法, 资源, PDF, 教育网站, 神经网络
ELM的主要目的是使机器学习同时达到高准确度,较少的人工干预和实时学习。和过去
几十年传统的神经网络算法和理论信条相反,ELM理论显示隐层节点很重要但许多种神
经网... 阅读全帖 |
|
m***r 发帖数: 359 | 44 机器学习日报 2015-03-12
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-12/short.html
1) 【中英文维基百科语料上的Word2Vec实验】 by @52nlp
关键词:自然语言处理, 主题模型
中英文维基百科语料上的Word2Vec实验: 最近利用gensim word2vec模块在中英文维基
百科语料上分别测试了一下word2vec,记录一下实验的过程,欢迎观摩 [1]
[1] http://www.52nlp.cn/?p=8198
2) 【extreme learning machines】 by @黄广斌-ELM
关键词:算法, 资源, PDF, 教育网站, 神经网络
ELM的主要目的是使机器学习同时达到高准确度,较少的人工干预和实时学习。和过去
几十年传统的神经网络算法和理论信条相反,ELM理论显示隐层节点很重要但许多种神
经网... 阅读全帖 |
|
t******l 发帖数: 10908 | 45 数字卷积器本身并不低通滤波。。。FFT 本身并不损失信息,频域大幅度低通滤波器才
大幅度损失信息。
如果卷积器加频域大幅低通滤波器,那确实理论上有可能信息量损失太大而还原不出来。
但频域大幅度低通滤波器的问题是,模糊后的艺术效果不好,比如有震荡波效果啥的。
。。而 P 图软件本质是美丽软件而不是加密软件,其 LPF 不一定是真正的频域大幅低
通滤波器。。。所以有可能出现邓尼兹潜艇医你个妈密码机的漏洞。。。当然这些都是
赌。。。
: 我觉得你说的有问题,虽然弃婴扯到泛函我也不懂,但是卷积在频率域上
就是两
者fft
: 变换的乘积,如果是低通滤波器的话那就是把高频直接截掉了,想完全恢
复过去
是不可
: 能的
: :高端数学象牙塔把数字卷积叫泛函分析。 |
|
发帖数: 1 | 46 数值信号还是可以当做原信号的数字化采样嘛,原信号f*g卷积做完fft就是 F·G,理论
上就是g这个卷积核在频率域上滤波,能不能恢复基本要看g的性质了。
不知道理解的对不对
:数字卷积器本身并不低通滤波。。。如果卷积器加频域大幅低通滤波器,那确实理论
上信息量损失太大而还原不出来。
: |
|
发帖数: 1 | 47 能算出卷积核(假如是用卷积方式滤波的)的话就能恢复了
:如果用AI根据过往经验大致推断出卷积窗的类型,
:或者AI去那个P图网站做海量P图,推出卷积窗的类型。 |
|
h**6 发帖数: 4160 | 48 每一个数字都是0~9的iid
一个数字的情况,总和为0~9的方法分别为
1, 1, 1, 1, 1, 1, 1, 1, 1, 1
两个数字的情况,总和为0~18的方法为以上的卷积
1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1
三个数字的情况,总和为0~27的方法为以上的卷积
1, 3, 6, 10, 15, 21, 28, 36, 45, 55, 63, 69, 73, 75, 75, 73, 69, 63, 55, 45,
36, 28, 21, 15, 10, 6, 3, 1
然后计算平方和为:55252
则概率为 55252/1000000
如果考官要你推广到m进制的n个数字相等(前后共2n个数字)
那么,可以告诉他,或者她:
利用 FFT 进行 logn 次卷积,其中最长的一次长度为 mn/2
总复杂度为:mnlog(mn)logn
不用FFT的话,由于卷积的特殊性,可以达到mn^2,考虑 FFT 的额外开销,实际速度可能相差不大。
如果这是一个二进制的问题,即每个数字只能是 0 或 1。那么无论多少个数
字都 |
|
d*******l 发帖数: 338 | 49 不会matlab外加不知道卷积是什么,我花了很多时间来查定义。然后意义就差不多知道
了,不过几句话确实不太好解释清楚,大概的说说吧。
首先明确卷积的定义,两个序列的卷积的第n项是:
c[n] = a[0]*b[n]+a[1]*b[n-1]+...+a[n]*b[0]
把a[i]看作是用一个数字得到和i+1的方案数,b[i]看作是用两个数字得到和i+2的方案
数,那c[n]是什么?
用一个数字得到1方案数*用两个数字得到n+2方案数 +
用一个数字得到2方案数*用两个数字得到n+1方案数 +
...
用一个数字得到n+1方案数*用两个数字得到2方案数
= 用3个数字得到n+3的方案数
开始的时候那个全1的向量就是a,b是两个a卷积之后的结果,意义和上面类似。
b[n] = a[0]*a[n]+a[1]*a[n-1]+...+a[n]*a[0]
用一个数字得到1方案数*用一个数字得到n+1方案数 +
用一个数字得到2方案数*用一个数字得到n方案数
...
用一个数字得到n+1方案数*用一个数字得到1方案数
= 用2个数字得到n+2的方案数
所以b[n]表示的是用2个数字得到n+2的方案数。... 阅读全帖 |
|
c****p 发帖数: 6474 | 50 若随机变量X的概率密度为Px,Y的概率密度为Py,则(X+Y)的概率密度为conv(Px,Py)
。
以上适用于连续密度函数。我用两个骰子扔点验证了一下,好像还是正确的。
理论上当然也是正确的。
令Z=X+Y,则P(Z==z) = P(x==1)*P(y==z-1) + P(x==2)*P(y==z-2)...+P(x==z-1)*P(y=
=1)
这个恰好就是卷积的定义。
鉴于MATLAB里面算卷积很方便,我就用它算了一下。
实现得好的话,卷积的复杂度是NlogN,不好的话是N^2,N为卷积序列长度。好像不比穷
举快多少。。。 |
|