a***n 发帖数: 404 | 1 可以 对 线性排列的 数据 进行 clustering的 。比方有一个 数列:
1, 2, 3, 44, 5, 6, 7, 8, 101, 102, 103, 144, 105, 106, 107, 108.
有没有一个 类似hierachical的clustering算法 。比方上面数列,如果要分成两个,
明显前面的 8个数字,后面的8个数字 分别构成两个 cluster.尽管其中的44与144有些
另类。但要是 分成 4个 clustering,44和144就可以分别单独成为一个cluster.
有这样的线性数据 的clustering的算法么?就是结果不能跳跃。各个cluster不能
cross.
谢谢! | P********e 发帖数: 2610 | 2 k-mean
【在 a***n 的大作中提到】 : 可以 对 线性排列的 数据 进行 clustering的 。比方有一个 数列: : 1, 2, 3, 44, 5, 6, 7, 8, 101, 102, 103, 144, 105, 106, 107, 108. : 有没有一个 类似hierachical的clustering算法 。比方上面数列,如果要分成两个, : 明显前面的 8个数字,后面的8个数字 分别构成两个 cluster.尽管其中的44与144有些 : 另类。但要是 分成 4个 clustering,44和144就可以分别单独成为一个cluster. : 有这样的线性数据 的clustering的算法么?就是结果不能跳跃。各个cluster不能 : cross. : 谢谢!
| a***n 发帖数: 404 | 3 k-means是要预先指定cluster的个数的,有hierachical的算法么?
另外,这个知道的仅仅是每个数据与其他的数据的距离。
但是每个数据前后关系是固定的,简单说就是已知一段光谱,要对光谱按照颜色相近分
段。
但是分多少段是未知的,而且当分得段比较大的时候,每一段中有可能有部分小段光谱
比较异常,这种情况下分段也要能够正确进行。
k-means感觉搞不定这个,即使已知每种颜色之间的距离。
可能这个类似spatial clustering,我想spatial clustering应该不会让点乱重组的。
不知道有没有人是做这个的,有没有什么好的算法做这样的光谱clustering.
谢谢。
个,
有些
【在 P********e 的大作中提到】 : k-mean
| b********p 发帖数: 875 | 4 可以试试比较新的 information bottleneck
去不同的cluster的个数, 比如2,4,8,16....., 自动生成hierachy
http://books.nips.cc/papers/files/nips16/NIPS2003_LT13.pdf
感觉你这个问题用hidden markov比用clustering好把 | a***n 发帖数: 404 | 5 这个HMM也能,咋整呢? did you mean markov clustering?
【在 b********p 的大作中提到】 : 可以试试比较新的 information bottleneck : 去不同的cluster的个数, 比如2,4,8,16....., 自动生成hierachy : http://books.nips.cc/papers/files/nips16/NIPS2003_LT13.pdf : 感觉你这个问题用hidden markov比用clustering好把
| b********p 发帖数: 875 | 6 你们的线性关系是什么知道吗,还是说线性关系也是未知的?
如果是后者,可以看成是hmm的inference, Baum-Welch algorithm.
你有几个clusters就有几个hidden states
假设你的data是y_1,y_2 ... y_n
有两个clusters, 就是有两个hidden states,
z1, z2, 他们transition probability p00,p11是要来猜的
对以每个hidden state,
emission probability
P(Y_j | z_i) 是 a_i + b_i * Uniform(0,1),
a_i, b_i 也是用来猜的,
然后就用MLE算p00,p11, a_i, b_i
【在 a***n 的大作中提到】 : 这个HMM也能,咋整呢? did you mean markov clustering?
| b********p 发帖数: 875 | 7 其实还是想不出怎么整出个hierachical的算法
【在 b********p 的大作中提到】 : 你们的线性关系是什么知道吗,还是说线性关系也是未知的? : 如果是后者,可以看成是hmm的inference, Baum-Welch algorithm. : 你有几个clusters就有几个hidden states : 假设你的data是y_1,y_2 ... y_n : 有两个clusters, 就是有两个hidden states, : z1, z2, 他们transition probability p00,p11是要来猜的 : 对以每个hidden state, : emission probability : P(Y_j | z_i) 是 a_i + b_i * Uniform(0,1), : a_i, b_i 也是用来猜的,
| a***n 发帖数: 404 | 8 我感觉这个问题有点像给你一个彩色的图,然后根据色彩对图分块。
有点类似 spectral partition?
对于图像分割clustering不了解,不过感觉如果可以这样类比的话,我这里提到的
问题肯定比这个图像问题简单,因为就是一维的。就像一段光谱,要分段,而不是
一个彩色图,要分块。
你说的这个HMM俺还是不怎么理解,怎么去用这个。汗~~ 俺这边的数据的关系就是
前后数据的位置已知,谁挨着谁都定好了,然后每个数据间的色彩距离也是已知。
就是有一个matrix表明各个数据的色彩差异。所以每个数据既知道它的物理位置,也就是
在线段上挨着谁,前面是谁,后面是谁,又知道了这个数据的另外一个性质,也就是它
与其他数据的色彩距离,所以结果要根据色彩来做clustering,但是要尽量preserve这
些数据的原始的物理的相对位置。我觉得做图像的人应该早就解决这个问题了。不知道
有没有
现成的算法,程序可以用。 :(
【在 b********p 的大作中提到】 : 你们的线性关系是什么知道吗,还是说线性关系也是未知的? : 如果是后者,可以看成是hmm的inference, Baum-Welch algorithm. : 你有几个clusters就有几个hidden states : 假设你的data是y_1,y_2 ... y_n : 有两个clusters, 就是有两个hidden states, : z1, z2, 他们transition probability p00,p11是要来猜的 : 对以每个hidden state, : emission probability : P(Y_j | z_i) 是 a_i + b_i * Uniform(0,1), : a_i, b_i 也是用来猜的,
| t**k 发帖数: 260 | 9 Agglomerative hierarchical clustering? |
|