a*******1 发帖数: 1 | 1 computational statistics只是(unsupervised ) machine learning中的一部分。 |
a***m 发帖数: 5037 | 2 现在的AI要落实应用
其实是在解决一系列工程问题:
数据的准备预处理,硬件的支持,网络结构选型,程序实现,调参等等
不能把一个工程学科和统计等同起来把 |
a*******1 发帖数: 1 | 3 machine learning中的一个很重要的问题就是classification。说得通俗一点,就是给
个体对象(objects)贴标签(labels)。 |
T*******x 发帖数: 8565 | 4 传统machine learning 是统计。现在deep learning,neural networks不是统计。
【在 a*******1 的大作中提到】 : computational statistics只是(unsupervised ) machine learning中的一部分。
|
g******t 发帖数: 11249 | 5 ML有几个流派
有统计发愿的,也有AI发源的
【在 T*******x 的大作中提到】 : 传统machine learning 是统计。现在deep learning,neural networks不是统计。
|
b***y 发帖数: 14281 | 6 你说一个不是统计的部分来看看是不是还是统计。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 a*******1 的大作中提到】 : computational statistics只是(unsupervised ) machine learning中的一部分。
|
g******t 发帖数: 11249 | 7 heuristic search
【在 b***y 的大作中提到】 : 你说一个不是统计的部分来看看是不是还是统计。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
s*****r 发帖数: 43070 | |
b***y 发帖数: 14281 | 9 说的当然是软件部分,一整套实现方法当然是工程,但你也可以说那是统计的工程实现。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 a***m 的大作中提到】 : 现在的AI要落实应用 : 其实是在解决一系列工程问题: : 数据的准备预处理,硬件的支持,网络结构选型,程序实现,调参等等 : 不能把一个工程学科和统计等同起来把
|
T*******x 发帖数: 8565 | 10 convolutional neural networks就不是统计。图像识别的。
【在 b***y 的大作中提到】 : 你说一个不是统计的部分来看看是不是还是统计。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
|
|
b***y 发帖数: 14281 | 11 NNW怎么不是统计?这就是大参数系统靠暴力calibrations出来的模型,地下还是
optimize error function加linear and non-linear regression,非常典型的统计方
法。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 T*******x 的大作中提到】 : 传统machine learning 是统计。现在deep learning,neural networks不是统计。
|
a*******1 发帖数: 1 | 12 好的。
很多例子…随便来一个:
李菲菲知道不?
她就是用convolutions network识别images。
这个不是统计。
【在 b***y 的大作中提到】 : 你说一个不是统计的部分来看看是不是还是统计。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
g******t 发帖数: 11249 | 13 统计有两种文化
data model和algorithm model
【在 b***y 的大作中提到】 : NNW怎么不是统计?这就是大参数系统靠暴力calibrations出来的模型,地下还是 : optimize error function加linear and non-linear regression,非常典型的统计方 : 法。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
b***y 发帖数: 14281 | 14 看楼上,这就是典型的multi variable regression,非常经典的统计。不过是自由度
特别大一点,以前人不相信可以这样暴力calibrate,现在知道原来能work。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 T*******x 的大作中提到】 : convolutional neural networks就不是统计。图像识别的。
|
b***y 发帖数: 14281 | 15 这个算是是比较靠CS。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 g******t 的大作中提到】 : heuristic search
|
g******t 发帖数: 11249 | 16 还有频率学派和贝叶斯学派之争
【在 b***y 的大作中提到】 : 这个算是是比较靠CS。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
b***y 发帖数: 14281 | 17 基本上来说主流的AI应用技术都是统计,区别主要是以前统计里设计模型的人试图控制
理解model ,要赋予每一个参数一个物理意义。现在改做大参数空间的模型,放弃对模
型直接的控制,也不打算理解每一个参数的意义了。其他有些CS的技巧的算法,但大体
有牛B结果的都是从原先统计里拉过来的。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 a*******1 的大作中提到】 : computational statistics只是(unsupervised ) machine learning中的一部分。
|
T*******x 发帖数: 8565 | 18 你这么理解我觉得不是deep neural network本质。deep neural network本质是模拟神
经细胞,层次要深,层层传导,一层比一层抽象度高,最后达到人类日常概念的抽象程
度。
【在 b***y 的大作中提到】 : 看楼上,这就是典型的multi variable regression,非常经典的统计。不过是自由度 : 特别大一点,以前人不相信可以这样暴力calibrate,现在知道原来能work。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
D**D 发帖数: 1 | 19 说的太好了。
我熟悉的领域就是这样。
:基本上来说主流的AI应用技术都是统计,区别主要是以前统计里设计模型的人试图控
制理解model ,要赋予每一个参数一个物理意义。现在改做大参数空间的模型,放弃对
模型直接的控制,也不打算理解每一个参数的意义了。其他有些CS的技巧的算法,但大
体有牛B结果的都是从原先统计里拉过来的。
: |
x****6 发帖数: 4339 | 20 妈卖批的,也就是说,现在的AI是hype咯。
【在 D**D 的大作中提到】 : 说的太好了。 : 我熟悉的领域就是这样。 : : :基本上来说主流的AI应用技术都是统计,区别主要是以前统计里设计模型的人试图控 : 制理解model ,要赋予每一个参数一个物理意义。现在改做大参数空间的模型,放弃对 : 模型直接的控制,也不打算理解每一个参数的意义了。其他有些CS的技巧的算法,但大 : 体有牛B结果的都是从原先统计里拉过来的。 : :
|
|
|
b***y 发帖数: 14281 | 21 这个又不是新闻啦,很早就是这么说的啦,但一开始并没有人怀疑它是统计,顶多是受
到生物体启发的统计方法。2000年左右neural networks就用在很多问题上啦,当时很
多搞天体物理这一类实验的人用,因为背后的物理太复杂搞不清楚,这个方法的好处是
不用假定统计分布的形状。convolution算是比较新一点。
★ 发自iPhone App: ChinaWeb 1.1.4
★ 发自iPhone App: ChinaWeb 1.1.4
【在 T*******x 的大作中提到】 : 你这么理解我觉得不是deep neural network本质。deep neural network本质是模拟神 : 经细胞,层次要深,层层传导,一层比一层抽象度高,最后达到人类日常概念的抽象程 : 度。
|
b********6 发帖数: 35437 | 22 这不就是统计吗?
[在 TheMatrix (TheMatrix) 的大作中提到:]
:你这么理解我觉得不是deep neural network本质。deep neural network本质是模拟
神经细胞,层次要深,层层传导,一层比一层抽象度高,最后达到人类日常概念的抽象
程度。
:☆ 发自 iPhone 买买提 1.24.07 |
c*k 发帖数: 108 | 23
基本上正确。本质上就是炒作概念。
【在 x****6 的大作中提到】 : 妈卖批的,也就是说,现在的AI是hype咯。
|
a***m 发帖数: 5037 | 24 工程领域 谈炒作不炒作没意义 就看解决问题没有
现在深度学习还是切切实实解决了以前没法解决的问题
特别是视觉感知领域 全面推进了一大步
【在 c*k 的大作中提到】 : : 基本上正确。本质上就是炒作概念。
|
a*******1 发帖数: 1 | 25 我知道IBM用一大堆高性能processor来模拟brain,非常有意思。 |
w*******2 发帖数: 2199 | 26 你不如说牛顿迭代法也是统计得了
lol
【在 b***y 的大作中提到】 : NNW怎么不是统计?这就是大参数系统靠暴力calibrations出来的模型,地下还是 : optimize error function加linear and non-linear regression,非常典型的统计方 : 法。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
h*****2 发帖数: 154 | 27 正想说,看来 梯度下降,牛顿法 统统都是统计
壮哉我大统计
: 你不如说牛顿迭代法也是统计得了
: lol
【在 w*******2 的大作中提到】 : 你不如说牛顿迭代法也是统计得了 : lol
|
w*******2 发帖数: 2199 | 28 你这傻逼生物千老
正好相反,如果什么东西有扎实的统计理论作基础,那就不可能是hype
AI里恰恰含有很多没啥扎实统计理论的部分,所以才有hype的危险
当然统计出的问题主要是出自统计假设错误, 这个是可以避免的, 数据会指出
【在 x****6 的大作中提到】 : 妈卖批的,也就是说,现在的AI是hype咯。
|
g******t 发帖数: 11249 | 29 主要是硬件进步了
【在 a***m 的大作中提到】 : 工程领域 谈炒作不炒作没意义 就看解决问题没有 : 现在深度学习还是切切实实解决了以前没法解决的问题 : 特别是视觉感知领域 全面推进了一大步
|
a*******1 发帖数: 1 | 30 这就是IBM的TrueNorth Neurosynaptic System.
【在 a*******1 的大作中提到】 : 我知道IBM用一大堆高性能processor来模拟brain,非常有意思。
|
|
|
a***m 发帖数: 5037 | 31 争论这个没意思
那你用过去算法现在硬件去跑
跑的过现在的state-of-the-art
就去发论文批驳deeplearning好了
【在 g******t 的大作中提到】 : 主要是硬件进步了
|
g******t 发帖数: 11249 | 32 AI会议灌水的人多
理论统计门槛高多了
【在 a***m 的大作中提到】 : 争论这个没意思 : 那你用过去算法现在硬件去跑 : 跑的过现在的state-of-the-art : 就去发论文批驳deeplearning好了
|
d*****u 发帖数: 17243 | 33 传统的统计主要研究假设检验,数据拟合等等。
现在的深度学习也可以说是拟合,但是绕开了各种统计定理,用高维度参数实现对数据
内部关系的模拟。 |
b***y 发帖数: 14281 | 34 牛顿法,最速下降法,最小化误差函数拟合出最优函数,你非要说这不叫统计那就不能
怪比人笑话你了。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 h*****2 的大作中提到】 : 正想说,看来 梯度下降,牛顿法 统统都是统计 : 壮哉我大统计 : : : 你不如说牛顿迭代法也是统计得了 : : lol :
|
b***y 发帖数: 14281 | 35 没必要批驳deeplearning,也许人脑也是个统计模型。这并不矛盾。
没人怀疑现在的AI能在很多传统上使用统计的地方发挥作用,比如人脸识别,语言理解。
比较争议的问题是现在这个方法能不能出现真正的自主意识吧。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 a***m 的大作中提到】 : 争论这个没意思 : 那你用过去算法现在硬件去跑 : 跑的过现在的state-of-the-art : 就去发论文批驳deeplearning好了
|
h*****2 发帖数: 154 | 36 反正统计最牛逼,都是统计好了吧
: 牛顿法,最速下降法,最小化误差函数拟合出最优函数,你非要说这不叫统计那
就不能
: 怪比人笑话你了。
: ★ 发自iPhone App: ChinaWeb 1.1.4
【在 b***y 的大作中提到】 : 没必要批驳deeplearning,也许人脑也是个统计模型。这并不矛盾。 : 没人怀疑现在的AI能在很多传统上使用统计的地方发挥作用,比如人脸识别,语言理解。 : 比较争议的问题是现在这个方法能不能出现真正的自主意识吧。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
m*****n 发帖数: 4015 | 37 不能说是统计。数学就是个工具。总不能说去用了这个工具 就成了 工具的学科分支了
吧。信息论 编码解码 也用统计 我们 仍然把它看成EE 分支而不是统计xueke |
m*****n 发帖数: 4015 | 38 学科分支是这么定义的吗? deep learning 是研究这写个课题的吗。
【在 b***y 的大作中提到】 : 牛顿法,最速下降法,最小化误差函数拟合出最优函数,你非要说这不叫统计那就不能 : 怪比人笑话你了。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
o***o 发帖数: 194 | 39 统计ai根本不可靠,我老养猪就看出来了
统计ai不工作都不知道为什么,所以商用是joke,谁敢用一会工作一会不工作,都搞不
清为什么的.根本无法满足商用可靠要求
人脑根本不是这样的工作的,可靠性不能比,否则大部分人开车都撞死了 |
D**D 发帖数: 1 | |
|
|
a***m 发帖数: 5037 | 41 人的偶然性多了。
不管是体育运动还是考试成绩不都有偶然性吗
【在 o***o 的大作中提到】 : 统计ai根本不可靠,我老养猪就看出来了 : 统计ai不工作都不知道为什么,所以商用是joke,谁敢用一会工作一会不工作,都搞不 : 清为什么的.根本无法满足商用可靠要求 : 人脑根本不是这样的工作的,可靠性不能比,否则大部分人开车都撞死了
|
o***o 发帖数: 194 | 42 人的可靠性强多了,人处理的问题都不是能精确计算的,不能用精确计算问题和人比,
这种是没智商的比较,比我养猪的脑子都不如
: 人的偶然性多了。
: 不管是体育运动还是考试成绩不都有偶然性吗
【在 a***m 的大作中提到】 : 人的偶然性多了。 : 不管是体育运动还是考试成绩不都有偶然性吗
|
L**********g 发帖数: 498 | 43 这不就是人工智能吗,你雇人之前,也不知道他能不能干,得试用三个月,跟AI一样
【在 o***o 的大作中提到】 : 统计ai根本不可靠,我老养猪就看出来了 : 统计ai不工作都不知道为什么,所以商用是joke,谁敢用一会工作一会不工作,都搞不 : 清为什么的.根本无法满足商用可靠要求 : 人脑根本不是这样的工作的,可靠性不能比,否则大部分人开车都撞死了
|
T*******x 发帖数: 8565 | 44 那你说说啥是统计,咱们看看能不能把它装进去。
【在 b********6 的大作中提到】 : 这不就是统计吗? : [在 TheMatrix (TheMatrix) 的大作中提到:] : :你这么理解我觉得不是deep neural network本质。deep neural network本质是模拟 : 神经细胞,层次要深,层层传导,一层比一层抽象度高,最后达到人类日常概念的抽象 : 程度。 : :☆ 发自 iPhone 买买提 1.24.07
|
b***y 发帖数: 14281 | 45 如果deep learning用了regression方法后发展出一套关于神经网络内部工作机制的数
学理论,那么就变成一个新的学科。但是实际并没有。目前为止machine leaning除了
统计里的东西以外并没有新的数学,有的只是我试验了这个network,有这么多层,用
了这样的convolution积分,结果work了。至于说为什么work,基本靠猜。所以根本没
有发展出新的学科,就是一大堆人在使出吃奶的力气大量的应用了统计方法,做了很多
试验得出一些经验总结。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 m*****n 的大作中提到】 : 学科分支是这么定义的吗? deep learning 是研究这写个课题的吗。
|
o***o 发帖数: 194 | 46 你这太差了,连我说的什么都没听懂
: 这不就是人工智能吗,你雇人之前,也不知道他能不能干,得试用三个月,跟AI
一样
【在 L**********g 的大作中提到】 : 这不就是人工智能吗,你雇人之前,也不知道他能不能干,得试用三个月,跟AI一样
|
T*******x 发帖数: 8565 | 47 应该这么说,deep learning要解决的问题和统计regression要解决的问题有重合,但
是使用的方法不是统计的方法。
【在 b***y 的大作中提到】 : 如果deep learning用了regression方法后发展出一套关于神经网络内部工作机制的数 : 学理论,那么就变成一个新的学科。但是实际并没有。目前为止machine leaning除了 : 统计里的东西以外并没有新的数学,有的只是我试验了这个network,有这么多层,用 : 了这样的convolution积分,结果work了。至于说为什么work,基本靠猜。所以根本没 : 有发展出新的学科,就是一大堆人在使出吃奶的力气大量的应用了统计方法,做了很多 : 试验得出一些经验总结。 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
n********t 发帖数: 21 | 48 我也不懂ai,但是连老莫都看出来是hype。就知道ai兔子尾巴长不了。
:人的可靠性强多了,人处理的问题都不是能精确计算的,不能用精确计算问题和人比
,这种是没智商的比较,比我养猪的脑子都不如
: |
z***o 发帖数: 1254 | 49 不懂AI。看过李菲菲的演讲视频。她的computer vision以前和语音识别自然语言处理
都叫模式识别,现在都归在AI里头了。她自己说以前都是搞model,现在都是搞海量数
据不搞model了。简单说理论还是老一套,就是利用了第一互联网产生的海量数据,第
二现代半导体发达后的强大计算能力,这两板斧造就了现今AI的亢奋 |
b***y 发帖数: 14281 | 50 也不完全是算力问题。主要是以前人们都不认为凭这类primitive的模型能靠海量数据
加暴力拟合达成这么好的效果。一般人都觉得肯定会over fit,最后屁用没有。但是真
有人去实验之后发现很多情况下还真的work,比方图像识别,效果巨好。其实技术没什
么大的进步,但是解放了思维,人们恍然大悟原来巨量自由度加巨量拟合是可以收到些
神奇效果的。
★ 发自iPhone App: ChinaWeb 1.1.4
【在 z***o 的大作中提到】 : 不懂AI。看过李菲菲的演讲视频。她的computer vision以前和语音识别自然语言处理 : 都叫模式识别,现在都归在AI里头了。她自己说以前都是搞model,现在都是搞海量数 : 据不搞model了。简单说理论还是老一套,就是利用了第一互联网产生的海量数据,第 : 二现代半导体发达后的强大计算能力,这两板斧造就了现今AI的亢奋
|
|
|
n******e 发帖数: 163 | |
b**e 发帖数: 1476 | 52 从统计角度deep learning包括cnn是统计的一个步骤
就是生成feature的过程
【在 T*******x 的大作中提到】 : 应该这么说,deep learning要解决的问题和统计regression要解决的问题有重合,但 : 是使用的方法不是统计的方法。
|
b******t 发帖数: 1271 | 53 正确的说是递归算法
的确和统计差别不大问题是智能是独立于大数据的递归计算的
: machine learning中的一个很重要的问题就是classification。说得通俗一点,
就是给
: 个体对象(objects)贴标签(labels)。
【在 a*******1 的大作中提到】 : 这就是IBM的TrueNorth Neurosynaptic System.
|
m*****n 发帖数: 4015 | 54 你这个认识太片面了。你把深度学习 当成一个统计分支。
你这就好比把 研究 compression 或者做 source coding 的那拨人 直接划到统计系一
样。
深度学习 也有很多其他手段和问题。当数据不是 predictive 的时候 很多时候 这是
一个优化问题。不是一个统计问题。优化问题是应用数学部分。其他还有 图形学 拓扑
学。其实 深度学习和神经网络关系很大 儿这个分支明显更贴近于 EE 大方向下面的
信号处理 小方向。把 深度学习划分到 信号处理 比你划到数学系的统计专业更靠谱。
[在 btphy (btphy) 的大作中提到:]
:如果deep learning用了regression方法后发展出一套关于神经网络内部工作机制的数
:学理论,那么就变成一个新的学科。但是实际并没有。目前为止machine leaning除了
:统计里的东西以外并没有新的数学,有的只是我试验了这个network,有这么多层,用
:了这样的convolution积分,结果work了。至于说为什么work,基本靠猜。所以根本没
:有发展出新的学科,就是一大堆人在使出吃奶的力气大量的应用了统计方法,做了很
多试验得出一些经验总结。
:★ 发自iPhone App: ChinaWeb 1.1.4 |
a*******1 发帖数: 1 | 55 李菲菲教授搞的那个数据库对人工智能有了不起的贡献。具体来说,她的团队用的
model是convolutional network给数亿万计的images贴标签。这个开放数据库可以用来
为之
后的AI model当training data用。
【在 z***o 的大作中提到】 : 不懂AI。看过李菲菲的演讲视频。她的computer vision以前和语音识别自然语言处理 : 都叫模式识别,现在都归在AI里头了。她自己说以前都是搞model,现在都是搞海量数 : 据不搞model了。简单说理论还是老一套,就是利用了第一互联网产生的海量数据,第 : 二现代半导体发达后的强大计算能力,这两板斧造就了现今AI的亢奋
|
t********e 发帖数: 1079 | 56 shabi,牛顿迭代是算法
【在 h*****2 的大作中提到】 : 正想说,看来 梯度下降,牛顿法 统统都是统计 : 壮哉我大统计 : : : 你不如说牛顿迭代法也是统计得了 : : lol :
|