由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - DL基础问题有进展了吗?
相关主题
问一个machine learning/SVM 问题xgboost 里面的tree到底是一整个depth=N的树,还是一个binary
C++ delete彻底抛弃xgboost 找新欢lightlgm没毛病吧?
svm/svr还是不错的请问xgboost训练需要保持不同类别样本数尽量一致吗?
单变量xgboost模型好的吓人,求解Re: Zillow Prize kaggle的比赛 求问
有没有做sentiment analysis的,求思路大家试过 h2o吗?
求教 xgboost train error 非常小,咋回事xgboost预测结果不一致怎么回事?
xgboost 训练大数据问题问个算法的问题
xgboost 训练小感practical advice on Scala
相关话题的讨论汇总
话题: br话题: dl话题: tangent话题: kernel话题: neural
进入Programming版参与讨论
1 (共1页)
g****t
发帖数: 31659
1
何以扁长形有特效,现在有公认的说法了吗?
有无好的综述文章或者书籍推荐下?
C*****l
发帖数: 1
2
Neural Tangent Kernel算么,无限宽度网络被证明等效于神经正切核,可以收敛到
global minimum。
几个老中小孩做的工作很漂亮
https://blog.ml.cmu.edu/2019/10/03/ultra-wide-deep-nets-and-the-neural-
tangent-kernel-ntk/
g****t
发帖数: 31659
3
与我说的问题,似无直接关系。


: Neural Tangent Kernel算么,无限宽度网络被证明等效于神经正切核,可以收
敛到

: global minimum。

: 几个老中小孩做的工作很漂亮

: https://blog.ml.cmu.edu/2019/10/03/ultra-wide-deep-nets-and-the-neural-

: tangent-kernel-ntk/



【在 C*****l 的大作中提到】
: Neural Tangent Kernel算么,无限宽度网络被证明等效于神经正切核,可以收敛到
: global minimum。
: 几个老中小孩做的工作很漂亮
: https://blog.ml.cmu.edu/2019/10/03/ultra-wide-deep-nets-and-the-neural-
: tangent-kernel-ntk/

g****t
发帖数: 31659
4
Btw:
此blog 验证的一节,也旁证了之前我提过的一件事:没有卷积,cifar测试的准确率无
法达到70%。
下面这个想法,不知诸位怎么看:
相较于Xgboost,DL的优势也许在卷积,未必在于neural network?


: 与我说的问题,似无直接关系。

: 敛到



【在 g****t 的大作中提到】
: 与我说的问题,似无直接关系。
:
:
: Neural Tangent Kernel算么,无限宽度网络被证明等效于神经正切核,可以收
: 敛到
:
: global minimum。
:
: 几个老中小孩做的工作很漂亮
:
: https://blog.ml.cmu.edu/2019/10/03/ultra-wide-deep-nets-and-the-neural-
:
: tangent-kernel-ntk/
:

1 (共1页)
进入Programming版参与讨论
相关主题
曲线光滑,什么算法最好?有没有做sentiment analysis的,求思路
如何计算卷积?求教 xgboost train error 非常小,咋回事
有人参加hacker cup吗?xgboost 训练大数据问题
推荐个VISUAL STUDIO 2010和C++入门书吧xgboost 训练小感
问一个machine learning/SVM 问题xgboost 里面的tree到底是一整个depth=N的树,还是一个binary
C++ delete彻底抛弃xgboost 找新欢lightlgm没毛病吧?
svm/svr还是不错的请问xgboost训练需要保持不同类别样本数尽量一致吗?
单变量xgboost模型好的吓人,求解Re: Zillow Prize kaggle的比赛 求问
相关话题的讨论汇总
话题: br话题: dl话题: tangent话题: kernel话题: neural