N*****m 发帖数: 42603 | | w***g 发帖数: 5958 | 2 k-means不行吗?DL是用来提特征的,做clustering恐怕没有优势。
【在 N*****m 的大作中提到】 : 低维和高维分别怎么做?
| N*****m 发帖数: 42603 | 3 可以,不过想知道DL在这些方面有啥进展
【在 w***g 的大作中提到】 : k-means不行吗?DL是用来提特征的,做clustering恐怕没有优势。
| w***g 发帖数: 5958 | 4 我已经好几年没看paper了,我也不知道有啥进展。
【在 N*****m 的大作中提到】 : 可以,不过想知道DL在这些方面有啥进展
| l*******m 发帖数: 1096 | 5 DL算法有两点特点,第一是minibatch parameter update, 第二是autodiff, backprop
如果用kmeans, 是有一种minibatch算法的,sklearn就有实现。但是kmeans的目标函数
是不可到的。如果用soft decision的kmeans, 则是可导的。不过这就是mixed
Gaussian,其本质和前一段大火的vae是一样。就是用minibatched backprop做
variational inference
【在 N*****m 的大作中提到】 : 可以,不过想知道DL在这些方面有啥进展
| N*****m 发帖数: 42603 | 6 谢谢啊
backprop
【在 l*******m 的大作中提到】 : DL算法有两点特点,第一是minibatch parameter update, 第二是autodiff, backprop : 如果用kmeans, 是有一种minibatch算法的,sklearn就有实现。但是kmeans的目标函数 : 是不可到的。如果用soft decision的kmeans, 则是可导的。不过这就是mixed : Gaussian,其本质和前一段大火的vae是一样。就是用minibatched backprop做 : variational inference
|
|