l******r 发帖数: 18699 | 1 边值条件确实是2,3阶可导,不过可以考虑特征向量的2阶导数满足的ODE,其边值条件就
是0阶和一阶的了。
这个问题的证明可能要用到Green's function的性质。一个well known的结果是green
function 的Laurent series的pole都是simple的,它的留数就是原边值问题的特征向
量除以特征根。如果能证明Green functions的留数一致有界则问题就大部分解决了。
我查到MH Stone 1925年一个论文讲的是常系数ODE的green function留数一致有界,不
知道对于系数是函数的时候是否也有类似结果。这个论文67页,真不打算把它的结果注
意推广,太复杂了。。。
基本上我们要考虑 L=(1/q)*D^(4),我们要证明L的特征向量一致有界。为此需要考虑
复合算子 L(D^(2))的特征向量的性质。可以通过研究L(D^(2))的Green function去实
现。我也正在搜文献想怎么证,等想到了给大家汇报一下,同时也感谢各位大牛的建议
呵呵。 |
|
c*******h 发帖数: 1096 | 2 特征值是特征多项式的根,多项式的跟对多项式的系数来说是连续的,所以特征值
是连续的。
求特征向量本质上就是对矩阵 A-aI 做两次高斯消元,剩下对角线和最右边一列。
其过程基本是就是加减乘除,所以能够看出来应该是连续的。当然特征向量有符号和
子空间的问题,尤其是特征值如果是重根的时候,所以得对“特征向量”的概念做点
约束。 |
|
f*******a 发帖数: 663 | 3 呵呵,自己解决了,前来填坑
其实也很简单:
将矩阵B用正交矩阵的标准形B=P*S*inv(P) 来表示
P正交阵,由特征向量构成
S对角阵,由特征值构成
已知的特征向量和特征值可直接填入,未知的部分可自由构造,只要满足P为正交阵,
特征值的模为1即可。 |
|
m***0 发帖数: 3 | 4 1d,如果是periodic boundary condition,
矩阵是
2 -1 0....0 -1
-1 2 -1 ......
..............
-1 0 ... 0 -1 2
特征向量是什么?我记得是cos啥的,怎么老出来不对 |
|
G********n 发帖数: 615 | 5 如果有一族光滑的对称矩阵,
它们的特征值和特征向量是连续的吗?
是可微的吗?
多谢~~ |
|
G********n 发帖数: 615 | 6 考虑一个2*2矩阵
a_{11} = -a_{22} = exp(-1/t^2)cos(2/t).
a_{12} = a_{21} = exp(-1/t^2)sin(2/t).
A(t)关于t是光滑的,但是在t=0时特征向量不连续... |
|
s*****e 发帖数: 115 | 7 的常数M能够控制住所有的这些特征向量函数。
I don't quite see why this is a question.
It seems that you require g(t) satisfies (1) at every t in [0,1], then g(t) must be continuous, and hence bounded on [0,1].
b |
|
l******r 发帖数: 18699 | 8 非常赞同。其实我想表达的就是第二个意思。这里面考虑的函数类是2阶Sobolev space
,也就是特征向量g所在的空间。为了更清楚,一楼原问题已做修改,参见一楼附件。
谢谢。
的确可以把这个高阶ODE写成Hamilton system,也就是G'=QG.当 G是一维,Gronwall
inequality可以用。不过对于G是高维的也能用吗?
) must be continuous, and hence bounded on [0,1]. |
|
l******r 发帖数: 18699 | 9 谢谢!
原来的叙述不清楚。我已经重新上传了这个问题在一楼。这里我们考虑的是所有的特征
向量构成的函数序列是否在(0,1)上一致有界。当然这个序列里的每一个函数由于连续
当然有界。可是这个序列整体是否一致有界不是很清楚。
) must be continuous, and hence bounded on [0,1]. |
|
l********e 发帖数: 349 | 10 一个N×M矩阵,如果给你这个矩阵的所有特征值和特征向量,如何反求这个矩阵是什么
?谢谢 |
|
f**********r 发帖数: 2137 | 11 非square matrix也可以有特征值么?
N=M就好办啊,A=PDP^(-1), P是特征向量组成的矩阵,D是特征值的对角阵 |
|
R********n 发帖数: 519 | 12 我想通过一个联系,把算法中用到的向量用矩阵来表示。比如有一个向量v,希望表达成矩阵M,可以通过M包含V的所有信息。
问题是,一般的做法都是用M的特征向量来表示v的方向,M的特征值来表示v的norm,但是特征向量是可以乘-1还是,这样方向就变了,所以存在一个方向模糊的问题。
就是说分辨不出来v or -v
比如M = v*v',这样通过M,我只能得到v or -v,但是不知道具体是哪一个
有什么方法可以把v的正负极性在矩阵中保留呢?谢谢~~~ |
|
R********n 发帖数: 519 | 13 再次请问~~~~~
有没有什么分解,对于某类矩阵M
M = R * E,其中R类似正交阵,E类似non-negative对角阵,这样的话,R or -R就能区
分出来了
达成矩阵M,可以通过M包含V的所有信息。
但是特征向量是可以乘-1还是,这样方向就变了,所以存在一个方向模糊的问题。 |
|
c*******h 发帖数: 1096 | 14 重根嘛。重根是会出问题的。特征子空间维度大于一,随便一组正交基旋转一下还是正
交基 |
|
l******r 发帖数: 18699 | 15 对了,这些eigenfunctions都是normalized,使得它们的L2-norm都是1.
在这种normalization之下,是否可以证明它们一致有界?请看一楼更正,谢谢。
当然不同的eigenvalue对应的eigenfunctions都是正交的,所以它们构成L2[0,1]空间
里的标准正交基。只不过eigenfunctions的Sobolev norm不是1,而是一个依赖于特征
值的常数,而且没有上界。
不好意思,这个问题一开始设计的不严谨。这貌似是微分方程里很重要的问题,可
是文献里却找不到。谢谢热心帮助!
problem you have, associated with each eigenvalue there are infinitely many
eigenfunctions, one differing from another just by a scalar multiple. So for
each $\lambda$ you can always pick $g_{\lambda}$ such that its sup-norm is
exactl... 阅读全帖 |
|
c*******t 发帖数: 953 | 16 发数学版没人回,就我一个人自说自唱。发这里了。
【 以下文字转载自 Mathematics 讨论区 】
发信人: coldlight (荧惑), 信区: Mathematics
标 题: 问几个线性空间特征值的问题
发信站: BBS 未名空间站 (Thu May 17 00:57:54 2012, 美东)
(以欧几里德空间为例,线性算子就是从左方向“向量”乘过来的矩阵)
1. 每个矩阵都有特征值吗?
2. 二维空间的旋转算子是不是没有特征值?
3. 三维空间的旋转算子是不是只有一个特征值/特征向量(旋转轴)?
4. 三维空间的镜像算子是不是(一般)有两个特征值?一个特征值对应的特征向量是法线向量,另外一个对应反射平面(平面里面有两个相互垂直的特征向量)?如果这两个特征值相等,会不会空间中任何一个向量都是特征向量?(对照第5问)从书上学来好像如此,但是直观看好像又不是?
5. 三维空间的坐标方向的拉伸/压缩算子,是不是(一般)有三个特征值,各自对应一个坐标轴?如果这三个特征值相等,那么空间中任何一个向量都是特征向量?
6. 一个线性算子是不是一定可以分解成上面这些算子的组合?
特征值问... 阅读全帖 |
|
c*******t 发帖数: 953 | 17 (以欧几里德空间为例,线性算子就是从左方向“向量”乘过来的矩阵)
1. 每个矩阵都有特征值吗?
2. 二维空间的旋转算子是不是没有特征值?
3. 三维空间的旋转算子是不是只有一个特征值/特征向量(旋转轴)?
4. 三维空间的镜像算子是不是(一般)有两个特征值?一个特征值对应的特征向量是
法线向量,另外一个对应反射平面(平面里面有两个相互垂直的特征向量)?如果这两
个特征值相等,会不会空间中任何一个向量都是特征向量?(对照第5问)从书上学来
好像如此,但是直观看好像又不是?
5. 三维空间的坐标方向的拉伸/压缩算子,是不是(一般)有三个特征值,各自对应一
个坐标轴?如果这三个特征值相等,那么空间中任何一个向量都是特征向量?
6. 一个线性算子是不是一定可以分解成上面这些算子的组合?
特征值问题我没有学精通,主要是原来头脑里面没有图像,只有书上学来的记住的东西
。现在想搞搞明白,建立些直观感觉。 |
|
q*****g 发帖数: 1568 | 18 e 是和指数函数exp(x)分不开的。这个函数有很多特有的分析性质,比方
说exp(x)的导数等于它本身。
下面假设你学过线性代数:换句话说,如果你把求导当作一个线性运算(它
其实就是一个线性算子,呵呵),那么它也可以求特征值(eigenvalue),而且
你会发现这个运算的特征值有很多很多。。。确切地说,包含了所有实(复)数,
当中1这个特征值所对应的特征“向量”就是exp(x)了。
又比如说,我们所熟知的三角函数,其实都可以用exp(rx)的组合来表示,
不过那个系数r可不能取成实数了,得是复数才行。这一神奇的联系是完全从
分析而不是几何上得到的——刚才说了,exp(x)是求导算子对应于1的特征向量,
那么exp(rx)呢?答案也很简单,它是对应于r的特征向量。拿sin(x)来做个比方
吧,作用一次求导运算得到cos(x), 好象看不出来有什么耶,不急,再做一次
求导运算,我们得到了-sin(x)! 这说明,sin(x)本身虽然不是求导算子的
特征向量,却和对应于sqrt(-1)的那个特征向量有密切关系,因为那个特征向量
就具有同样的性质:一次求导多一个sqrt( |
|
w***g 发帖数: 5958 | 19 我用了4000! int[]不能动态长的!等下把16G内存全都用上试试。
我的问题其实很简单。最多500,000个128维浮点数特征向量,两两比较距离,算每个
特征向量的100个最近点。我估算了一下实际用到的内存也就1G都不到:
特征向量: 500,000 * 128 * 4 = 256M
100个最近点: 500,000 * 100 * (4 + 8) = 600M (每个点保存8位id和4位距离)。
我就不知道怎么用java编出来overhead能那么大。 |
|
m*********d 发帖数: 58 | 20 A矩阵是n乘n的对称实数矩阵,其中元素已知,则可以求出它的特征值和特征向量。
现有B也是n乘n已知的 正实数对角矩阵,那么B*A的特征值和特征向量 应该和 A与B的特
征值和特征向量 之间 有什么关系。
郁闷啊,这个问题弄了好几天了也没弄明白
xdjms 谁能帮忙看一眼?无限感激 |
|
h***s 发帖数: 1716 | 21 很早的一个基于hebbian规则的学习算法,是Kohonen的自组织网络,self-organizing
map(SOM)。算法思路和你描述的动力过程很相似,而且公式非常简单。基本思路就是
,预先给出一个,比如二维的,单元网络连接结构,然后自动学习各个单元的“特征”
向量(任意高维的),最后得到一个二维的网络连接结构,表达了高维“特征”向量的
几何(距离)关系。实现这个的原理就是基于『cells that fire together, wire
together』的思想,邻近单元的“特征”向量同步地学习和更新。当然,其他还有很多
类似的学习算法。 |
|
m*********d 发帖数: 58 | 22 A矩阵是n乘n的对称实数矩阵,其中元素已知,则可以求出它的特征值和特征向量。
现有B也是n乘n已知的 正实数对角矩阵,那么B*A的特征值和特征向量 应该和 A与B的特
征值和特征向量 之间 有什么关系。
郁闷啊,这个问题弄了好几天了也没弄明白
xdjms 谁能帮忙看一眼?无限感激 |
|
b***k 发帖数: 2673 | 23 ☆─────────────────────────────────────☆
millionwood (不死鸟也快穷死了~~) 于 (Mon Apr 7 01:51:06 2008) 提到:
A矩阵是n乘n的对称实数矩阵,其中元素已知,则可以求出它的特征值和特征向量。
现有B也是n乘n已知的 正实数对角矩阵,那么B*A的特征值和特征向量 应该和 A与B的特
征值和特征向量 之间 有什么关系。
郁闷啊,这个问题弄了好几天了也没弄明白
xdjms 谁能帮忙看一眼?无限感激
☆─────────────────────────────────────☆
neodreamer (aladdin) 于 (Mon Apr 7 10:25:26 2008) 提到:
我觉得没什么特殊关系吧,除非两个矩阵可以同时被对角化
的特
☆─────────────────────────────────────☆
chtoucas (王秭和龚洙) 于 (Mon Apr 7 11:36:25 2008) 提到:
A 和 B 可以同时被对角化,
条件是一个实对称,一个正定就可 |
|
f******t 发帖数: 7283 | 24 呵呵尝试想了一下:
1. 当年上抽象代数的时候,老教授第一堂课上就说,抽代四个重要概念:群、环、模
、域;结果期末考试第一道大题四个小题分别是默写这四个概念的定义。这里俄罗斯老
头问的是其中“环”的定义
2. 黎曼几何......也是当年,上完微分流形那门课之后有一门后继的选修课就是黎曼
几何,我打死都不愿去选。所以不懂......
3. FFT,wiki上有很多不同的implementation
4. 泰勒展开,关键是如何高效准确算高阶导数
5. 特征值和特征向量,假如是在矩阵空间里面的话好办,直接解特征多项式得到特征
值,有了特征值之后解对应的线性方程组得到所属特征子空间的一组基;或者用数值计
算里面那些方法(海森堡矩阵、QR分解等等);假如是对抽象的算子求特征值、向量,
可以用迭代法(Krylov space、Lanczos之类的那些),当然迭代法也适用于矩阵的情形
6. 解线性系统是数值代数里最终极的目的,数不尽的解法,不过大致分为这2类:直接
求解(高斯消去、QR分解等等);迭代求解(把AX=B转化为求min ||(AX-B)||这类形式
,等价于解一个优化问题) |
|
s******d 发帖数: 1 | 25 假定A是一个LxL 阶的实对称Toeplitz 矩阵,它的第一行元素是一个等差数列[L L-1 ..
. 1]。A的最大特征值lamda1对应的特征向量记为v1,归一化使v'v=1.根据perron定理
,v1是正向量。
我的问题是,不通过特征分解估计x=sum(v1)/sqrt(L)的下界。从仿真上看,x可能>0.
993,非常接近1.
但是,我如果只利用v1为正向量这一事实,则由x>=sqrt(L)*min(sum(A))/lamda然后估
计最大特征值便得到一个下界,但这个下界好像太松了,比如在L=5时大约为0.4。有没
有更紧的下界呢?
想不到其他任何的解题思路,希望能得到大家的指点,多谢! |
|
c*******t 发帖数: 953 | 26 关于第4问,我又想了想。三维空间中有镜像算子(平面镜),也有直线镜像算子。对
这个直线镜像算子来说,似乎也是有两个特征值,一个对应于这个直线,另一个对应于
法平面,这个法平面里面可以有两个相互垂直的特征向量。如果这两个特征值相等,会
不会空间中任何一个向量都是特征向量?(对照第5问)从书上学来好像如此,但是直
观看好像又不是? |
|
G*******h 发帖数: 1391 | 27 蚊子写的很好,不能同意更多。
1.)自我与非我。我一直同意有了我,然后定义非我。客观有个非我(假设有),但是
,自己可以感到、理解并建立的非我,只是那个客观的非我在我中的投影而已。
2.)我们自己建立的自我也始终在成长,被内在和外在的东西改变。
3.)荣格和霍妮都认为人的一生重要目标是:调试(debug)现实中的我,以便最大程
度上认识、发展和实现真我。不知道弗洛伊德如何认为。
4.)说到“我感到”和“我知道”。一本书里提到的观点我很同意。说:人的脑袋容量
有限,所以认识的过程基本上是先获取“我知道”的经验信息,而后进行(可能是不自
觉地)整理归纳,最后很多细节被忘掉了,于是只剩了“我感到”。也可以说,最后外
部信息被消化了,不存在了,参与了“我”的建设,变成了“我”的一部分。
说的理工科一点,如果一个人是一个系统,他就拥有自己的特征频率和特征向量。外部
刺激(认识的客体)需要在这些特征向量上投影和展开。最后能记住的都是共振比较强
烈的方向。当然这个投影过程也会导致认识主体的变换。
5.)回到散文,小说。是不是散文更感情化,小说更灵魂化?另外,大家说“小说”的
时候,是不是都默认是“长... 阅读全帖 |
|
|
v*******e 发帖数: 11604 | 29 某些学物理的,平时没有时间出头,想贬低别人来显得自己高大上。学物理的,有本事
让我考考你,二维线性变换是不是可以没有特征向量,三维线性变换是不是一定有特征
向量。 |
|
e***d 发帖数: 8248 | 30 同时,
我佬一直认为,什么样的人群,就演化出什么样的制度,
人群的特征向量并非一成不变的,而是时变的,
因而制度的演进也是一直在进行中的。
强行把特征向量迥异的人群的制度移植过来,
会有排异反应,有东施效颦之忧。
当然,不同的人群之间会共有一些相同的价值理念,
比如,自由平等包容尊重,所谓的普世价值。
从更大的尺度看,地球人作为一个整体还是一个小群体。 |
|
m**********r 发帖数: 122 | 31 作text mining的时候,对文章提取特征向量。最普通的是bag-of-words或N-gram, 请
问还有哪些方法能够抓住词与词之间的关系,并基于这些关系建立特征向量。 |
|
m**********r 发帖数: 122 | 32 作text mining的时候,对文章提取特征向量。最普通的是bag-of-words或N-gram, 请
问还有哪些方法能够抓住词与词之间的关系,并基于这些关系建立特征向量。 |
|
N******K 发帖数: 10202 | 33 特征向量快速K-nearest neighbor搜索
是指计算出矩阵特征向量然后根据这个计算两个矩阵相似度?
SDK |
|
w***g 发帖数: 5958 | 34 不是矩阵的特征向量。Feature vector,而不是eigen vector。可以是图片,音频,文
档啥的特征向量,用来做相似性搜索。 |
|
w***g 发帖数: 5958 | 35 NLP在应用这一块主要是information retrieval, 最典型的应用就是web搜索引擎。用
到的技术是倒排表,TF.IDF以及比较花哨点的pLSA, LDA等。再推广一些的话可以扯上
ranking, clustering等等。这类应用对语言模型的假设大致是vector model,最多就
是n-gram,主要是靠大数据和用户反馈等使得搜索结果比较靠谱。应用最多的系统应该
是lucene,还有sphinx。学术界用来搞研究用lemur(C++)的也比较多。如果用pLSA,LDA
等从文本抽取特征,那么就无法用倒排表了,只能用K-NN搜索。这个我觉得lucene可能
就做不了了(请专家指正)。Lemur可以做。还
有一个叫gensim的python库是用来做这个的,不知道是不是靠谱。还有一个应用是在超
大规模上找相似文本,甚至连倒排表都不够了,需要用到simhash和LSH等技术。
文本向量和topic model产生的特征向量可以用一般的机器学习方法做各种分类预测等
等,然后就是机器学习了。
理论一点的研究领域叫computational linguistics,研究怎么... 阅读全帖 |
|
b*****h 发帖数: 3386 | 36 不清楚你说的常见系统“生长”是什么。不过靠5%的特征向量恢复
矩阵太正常了。但是对于生物系统而言,维数上千的系统多的是,
从大脑,到蛋白结构和折叠。去掉了95%,也还有几十,几百维。
靠阴阳五行包打天下简直是笑话。
更进一步的问题是五行是1st, 2nd...principal特征向量么?它们
相似之处也仅在于经常很难找到直接对应的物理意义吧。把这个
两个扯上关系,不是猪鼻子插根葱就成了大象,呵呵。
看了你下面几段,大概知道你的背景和思维方式来源。不客气的说,
你缺乏是对生物和医学研究的实际经验。做的思考脱离实际,没有
根基。 你的数学思路不对路。
我结合具体的例子跟你说说。就拿你喜欢用的线性模型(非线性一样)
AX=B A是测量值组成的矩阵。B是结果。 X是系数,也就是系统所需要确定的
各类权重。 你感兴趣的都不太重要。
你可以把系统想象地维数特别特别........特别地高,但真做相关研究的
科学家们关心的是找出X中权重最大的几个element, 比如胆固醇
的体内平衡问题,有de nova合成,细胞排出,细胞吸入等3个主要parts, 可以
建立线性模型。对de nova合成,科 |
|
I********w 发帖数: 86 | 37 | 1 -4 |
| 4 -7 |
的特征向量怎么计算?
一个可逆矩阵可以有相同的特征向量吗? |
|
|
A**u 发帖数: 2458 | 39 大牛 你是不是这个意思
A(u_1,u_2,...,u_n) = (\lambda_1 u_1, \lambda_2 u_2, ..., \lambda_n u_n)
AB u_i = BA u_i = B \lambda_i u_i = \lambda_i B u_i
B u_i 是 A 的 \lambda_i 的特征向量
因此 B u_i = \mu_i u_i, (\mu_i, u_i) 是B的一个特征值,和特征向量?
如果这里 \lambda_i 多重兼并怎么办?
所以有 B(u_1,u_2,..,u_n) = (\mu_1 u_1, \mu_2 u_2, ..., \mu_n u_n)
|AB - xI|
= |U'AUU'BU - xI|
= |diag(\lambda) diag(\mu) - xI|
所以 x特征值是 AB特征值的乘机 |
|
A*****s 发帖数: 13748 | 40 不是啊,特征向量是4个4维的啊,最多4*4的矩阵啊
那个矩阵是10*4的
我忽略它了,直接用outstat=这个option,能把特征向量给我输出了 |
|
h******a 发帖数: 198 | 41 来自主题: Statistics版 - 请教PCA R里PCA的命令是princomp(data, cor=TRUE)。cor=TRUE是用correlation matrix来做
PCA。问题是,我用princomp(data, cor=TRUE)$score得到的principal component和自
己算的差的有点远。不知道哪里错了?附件是data
我自己是这样算的:
data是1256 x 8的matrix,一行是一个observation。用eigen()函数算data的
correlation matrix的单位化正交特征向量,每一列是一个特征向量,按特征值大小排
好序。最后用data * eigen,理论上也应该是component。
code:
score<-princomp(data,cor=TRUE)$scores
cor_pca<-cor(data)
score1<-data%*%eigen(cor_pca)$vectors |
|
w***g 发帖数: 5958 | 42 图片搜索应该还么有发展到识别“场景”的水平。但是确实需要用到多个local
feature在空间坐标上的agreement。
我的做法是先按local feature进行搜索,得到一个candidate set后再用feature的空
间坐标进行ranking。
用local feature做搜索开销是非常大的,一个query image直接就能变成100+个
feature query,但是从结果看Google
确实用到了local feature。具体不知道他们是怎么做的。
k-nn graph只是一个索引,大致就是你提供一个算similarity的函数,接受两个对象
指针返回一个相似性值。然后k-nn graph可以迅速帮你找到相似性大于一定threshold
的对象。
具体对象怎么表达,相似性怎么计算按应用而定。以前有一个方法叫做earth mover's
distance,
一个对象表达为一个特征向量的集合,然后相似性则是用线性规划做两个集合之间的匹
配。
这个是比较奇葩的方法了,传统索引只能处理高位向量,不能处理这种高维向量的集合
,但是
我试过k-nn graph可以处理... 阅读全帖 |
|
g******s 发帖数: 410 | 43 那不就回到特征值分解了吗?这个半正定矩阵表示为一组(可能是N个)特征向量外积的
加权和,而不是某一个(随机)向量的外积。不知道我的理解有没有不对?我原来的问
题是想把A分解成一个列向量的外积的期望。 |
|
g*******u 发帖数: 3948 | 44 我也这么想的
先训练n个分类器, 然后每个分类器作为一个feature生成器对每个样本输出一个prob
的特征 连接起来 然后训练一个总的对吧?
有个问题
比如 有两个分类器c1 c2
对样本i c1的概率输出是 p1= [p_c1_0 p_c1_1]
c1的概率输出是 p2=[p_c2_0 p_c2_1]
你意思吧p1 p2 stack起来 形成一个特征向量 进行训练?
也就是[p1 p2] =[p_c1_0 p_c1_1 p_c2_0 p_c2_1]
如果这样的话 一个问题是 我有很多分类器 比如有50个 这样stack起来 特征维数会
很大啊
比如50个分类器 分类 20类别问题 连接起来 有1,000维度啊
是不是 特征维度会太大?
还是我理解的有问题?
谢谢 |
|
w***g 发帖数: 5958 | 45 我有个开源的图像搜索软件,在这儿 https://code.google.com/p/nise/
demo还能干活,但是碰到中文浏览器貌似会出乱码,我也懒得改了。
工作原理无非是特征抽取和特征向量的索引,所有技术都有公开的论文可查。
图像搜索这东西实在是应用范围太少,没几家公司需要这个技术。我这个软件放出来三
年了,到今年才搞到一个小小的咨询的contract。
Google的图像搜索做得比较牛的,应该是融合了多种不同的特征。 |
|
g****t 发帖数: 31659 | 46 再次训练你的数据够吗……
第二次训练数据比第一次少很多了吧
数据不够不会有很多问题出来
: 我也这么想的
: 先训练n个分类器, 然后每个分类器作为一个feature生成器对每个样本
输出一
个prob
: 的特征 连接起来 然后训练一个总的对吧?
: 有个问题
: 比如 有两个分类器c1 c2
: 对样本i c1的概率输出是 p1= [p_c1_0 p_c1_1]
: c1的概率输出是 p2=[p_c2_0 p_c2_1]
: 你意思吧p1 p2 stack起来 形成一个特征向量 进行训练?
: 也就是[p1 p2] =[p_c1_0 p_c1_1 p_c2_0 p_c2_1]
: 如果这样的话 一个问题是 我有很多分类器 比如有50个 这样stack起
来 特征
维数会
|
|