T*********s 发帖数: 20444 | 1 雅力士博士不跟烂校小本说话
你还是回中关村攒机吧 |
|
D***n 发帖数: 6804 | 2 按照这个数据,我们能不能得出大的SUV比小车更安全的结论?
完全不需要你说的哪些信息也能得出答案:不能,
这么简单的东西为啥都不敢回答呢?随口吓唬一下你就怕成这样?呵呵呵呵呵! |
|
i****x 发帖数: 17565 | 3 哈哈哈哈哈
你眼里的答案就是不能,我解释为什么不能你就看不懂了,这就是你的水平
还要脱裤子放屁地用什么被噎死,哈哈哈哈 |
|
D***n 发帖数: 6804 | 4 哈哈,看看你的回答:
1)从来没听说过什么统计能包含所有信息的。
2)你的三点为啥是最重要的?为啥早晚,上班还是休闲,地点这些不重要呢?
这么搞笑的回答说不懂那是很客气啊。 |
|
D***n 发帖数: 6804 | 5 不能的解释很简单,排名第一的是奥迪A4,比后面很多SUV都轻都小。
你这解释才是真正的脱裤子放屁,哈哈哈哈。 |
|
i****x 发帖数: 17565 | 6 你怎么不继续讲normalization了?怎么不被噎死了?哈哈哈哈哈
你卖弄下游戏还成,在这拿本科的三脚猫概率公式卖弄实在是太不治天高地厚了,行了
今天我给你上课到此为止,剩下打脸工作就由别人慢慢完成了哈哈哈 |
|
D***n 发帖数: 6804 | 7 呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵
你说呢?白痴
呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵 |
|
B*Z 发帖数: 7062 | 8 人家找老色狼,你为什么冲上来给伊挡枪?洗洗睡了吧 |
|
|
|
|
I******I 发帖数: 14241 | 12 哈哈哈哈
不过我觉得最解气的还是dsb/弃婴,直接一句唐人街送外卖的就把这些人打趴下了。 |
|
T*********s 发帖数: 20444 | 13 老色狼想了一晚上 有没有想出发言稿
再不应对要被开除了 |
|
Z*****o 发帖数: 4090 | 14 放过人家小本吧,人家看了很久中文wiki才搜刮出这么点,脑袋都要想破了,上次自由
度的,塑料金属哪个强度高哪个便宜的哪个密度高的不也一样,人家拿手好戏就是不看
回复直接开启复读机模式。 |
|
|
D***n 发帖数: 6804 | 16 之前我基本上问icefox问题他都不敢直接回答,胆子小的不行,生怕一不小心又被抽脸
。所以现在都是调戏模式,随便拎弱智的来恶心他。他还在那里唧唧歪歪的怕的要死。
哈哈哈哈。 |
|
T*********s 发帖数: 20444 | 17 请在小本前面添加烂校二字
至少要达到上交的水平,才可以去掉烂校头衔
请问徳亢是哪里出身的 |
|
i****x 发帖数: 17565 | 18 呵呵呵呵
请小本统计家脱离自我调戏模式,认真给大家解释一下你打算怎么normalize死亡率
data,另外怎么使用贝叶斯公式?
哈哈 |
|
|
D***n 发帖数: 6804 | 20 呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵
孩子咋这白痴
一看你最基本的factor都找不全,不会找。
和你讨论noramlization岂不是脑袋被门夹了。
贝叶斯公式下面的分母就是Normalization项
自己翻书看看要求是什么。
我现在已经把难度给你降了,以调戏为主,
居然还自己感觉如此良好。
你是希望我以后每次都把你往死了抽么?
呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵 |
|
i****x 发帖数: 17565 | 21 哈哈哈,原来小本眼中的normalization意思就是除以车辆总数啊,我要是告诉你这个
统计数据已经除过车辆总数了你怎么看?哈哈哈哈哈
overall: driver deaths per million registered vehicle years
对了,针对你的脑力,我再加一条说明:所谓 per million registered vehicle
years指的是这款车的注册量,不是美国所有车的注册量 |
|
|
D***n 发帖数: 6804 | 23 呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵
呵呵
呵呵 赞赞赞 神思路 赞赞赞
呵呵
呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵呵 |
|
i****x 发帖数: 17565 | 24 对不起,我竭尽全力还是高估了你的智商,现在我才明白你根本没想通你那个分母和车
辆总数只差一个常数因子。 |
|
D***n 发帖数: 6804 | 25 哈哈哈,这个求学精神值得学习,我问你:
P(死 in 福克斯) = #(死 in 福克斯)
这是怎么搞出来的?我在一次试验中投掷2000次硬币,出现970次反,1030次正,是不
是P(反) = #反/#投币 = 0.485 ? |
|
D***n 发帖数: 6804 | 26 你别着急回我这个贴子,建议你去翻翻书仔细想想。
想明白了就知道,为啥Yaris这个所谓的名校博士,水平居然连一个烂本科都不如。
就他这基本素质,居然能混博士,也是一奇。 |
|
i****x 发帖数: 17565 | 27 “我在一次试验中投掷1000次硬币,出现970次反,1030次正”
佩服佩服,神人给出的例子都是神一样的例子 |
|
i****x 发帖数: 17565 | 28 报告老师,书里查不到这是怎么搞出来的:我在一次试验中投掷1000次硬币,出现970
次反,1030次正 |
|
D***n 发帖数: 6804 | 29 这个是很正常的啊,浙江大学版本概率论第一章特别提到这个事情。
你当年没看? |
|
|
D***n 发帖数: 6804 | 31 顺便,记得第五章也提了这事。你没看?没看赶紧去弄一本翻翻。 |
|
i****x 发帖数: 17565 | 32 给大家解释一下么,投1000次币怎么能得到1030次正面,我相信所有人都很好奇 |
|
D***n 发帖数: 6804 | 33 简单来说,
P是多次同样条件下重复试验的平均值的极限,你那个等号根本就是错的。
不用笔误或者省略来解释。这个明显是你本科时候大数定律没学懂。否则一个烂校本科
生20年后都记得的内容,你到现在还不知道为什么。
为啥要纠缠这个事情,原因是因为那个统计数据,每100万辆车才70辆,而且这么多年
Focus一共才卖了80万辆,我认为这个统计结果对noise很敏感,不能做为比较的坚实依
据。要想比较需要做normalization还要去掉noise,我个人认为不现实。
Yaris,icefox犯错我能理解,你丫一名校的博士怎么也看不出来? |
|
i****x 发帖数: 17565 | 34 原来normalization是去除noise用的,佩服佩服,我第一次听说。
不过你在记得不少大一概率术语的同时,听说过一门叫统计的学科么?统计里有个叫最
大似然估计的东西听说过么?另一个叫置信区间的玩意听说过么?你看到原帖统计数据
死亡率后面那个括号了么?那个就是置信区间。
这些应该够你查几天百度百科了。 |
|
D***n 发帖数: 6804 | 35 我不准备回你了,连答案都告诉你了。
你这方面基本水平不行,这个怎么辩论都没用的,不说别的,我们现在讨论的不是统计
,讨论的是最基本的概率论,你扯ML干啥?
你连最基本的大数定律,连概率和统计都分不清,和我扯ML有啥用?你以为提ML爷就怕
了? |
|
i****x 发帖数: 17565 | 36 楼主贴出统计数据,你却自称讨论的不是统计,你这个半瓶醋太爱咣当了,都不知道自
己在说些什么 |
|
|
D***n 发帖数: 6804 | 38 硬币数字大后通常不是50:50,因为现实中没有完美的硬币,没有完美的投掷。通常某
一侧出现的次数更多一些。 |
|
D***n 发帖数: 6804 | 39 还嘴硬?就算是扯ML也没用。
ML只是基于样本空间用来拟合分布的一种方法。我查过资料,Focus 2007年才引进,最
近4-5年内focus一共才卖出去80万辆,换句话说,一辆总销量也就100万左右的车,一
共才报了70个数据,用70个数据去做拟合证明focus安全性不行,这个信噪比会很差。
这个例子我认为单纯用ML不合适。 |
|
C********s 发帖数: 428 | 40 投1000次币怎么能得到1030次正面.。。。。。。。。。。。。。。。。。。。。。。
上帝帮你投了30次么。。。。 |
|
D***n 发帖数: 6804 | 41 噢!笔误,是2000次,感谢大家指正。
我已经改了。 |
|
d******e 发帖数: 7844 | 42 Decon的结论其实是有一定道理的。只不过他未必明白更深层的含义,至少我下面说的
本科的统计大都不会提及,美国的硕士统计课程也比较少提及。读PhD的话,修过
Advnaced的Inference课程的话,应该明白我在说什么。
因为是五年前修的课了,所以个别地方可能说的不准确,但是思路应该基本正确。
当一个Bernoulli r.v.的参数(分布均值)非常接近0的时候,想要同时准确估计样本的
参数和样本方差是很难的。现在可以看到p肯定是非常小的,很可能是在1e-5~1e-6的数
量级上。这时想用MLE的Asymptotic normality来做近似就很成问题了,因为对分布的
方差的估计的方差对比分布的方差本身还要大,导致你对方差的估计十分不可靠,最后
testing的结果非常不准,CI也十分不可靠。
解决办法我说两种,感兴趣的可以去看。第一种是去做exact testing,不做近似,但
鉴于样本量大,计算量会非常大。第二种是在推导Asymptotic ditribution时做高阶泰
勒展开,这样可以获得更精确的近似。
当然,也可以Heuristic的去直接拿mean比或者用norm... 阅读全帖 |
|
d******e 发帖数: 7844 | 43 换个更techinical的说法,做泰勒展开的时候,likelihood function的curvature太差
,不够regular,所以二阶不足以拿来近似。 |
|
D***n 发帖数: 6804 | 44 感谢认真的讨论,我不是学统计的。不过以前在应用过一些统计方法。不过这个例子,
我觉得用百万辆死亡率是有很强误导的。
而且另外一方面,我不确定MLE这种情况还是不是单调收敛,全局可能存在多个local
maxima。所以即便是能local逼近,初始值选取不同结果也不一定相同结果是否具有说
服力也是需要考虑的。
事实上,这个数字倒是反应了另外一个情况:汽车的安全性确实有很大的改进。 |
|
d******e 发帖数: 7844 | 45 话说如果看置信区间的话,用这个表格去做testing,基本没几个significant的... ...
Ford Focus 70[39-101]去跟Toyota Prius hybrid 16[5-28]比比还有些意义。
像Chevrolet Cruze 42[4-80]跟Nissan Versa hatchback 71[45-96],能提供的统计作
证很有限啊。 |
|
i****x 发帖数: 17565 | 46 嗯,来了个懂行的
decon就是个自以为是的烂校小本,知道点皮毛就来卖弄,更深层的东西我根本就懒得
给他提。而且他在论坛上一向如此,这非常可悲。不是每个人在所有方面都有知识,但
大多数人至少能意识到自己在某些方面只知皮毛,不会到处嘚瑟。
他开始说什么这个统计没有normailization,后来我明白他以为条件概率公式的分母就
是normalization,其实那个是“率”字的定义里就有的,跟normalization毫无关系。
所谓normalization指的是奔驰和丰田死亡数不可以直接比较,因为丰田车总数远多于
奔驰。而他解决所谓normalization问题的方法更可笑,搞出个什么贝叶斯公式,我都
没法解释贝叶斯跟这个问题有多么风马牛不相及。
然后他又开始纠结什么概率和统计的差异,其实我一眼就看得出他根本没理解什么是统
计。假设福克斯死亡率是个伯努利随机变量,这是概率模型,但概率不可能知道,而现
实中的福克斯死亡率是个样本统计,这个死亡率就是概念中的“真实死亡概率”的无偏
估计量,这个估计量自然不准确,但解决办法是构造置信区间而不是什么
normalization和贝叶斯都公式... 阅读全帖 |
|
d******e 发帖数: 7844 | 47 Techinical的东西你就不用琢磨了... ...你肯定不懂。
Bernoulli这种经典分布求MLE,能存在毛local maxima。
这件事最多说你的直觉是有一定道理的,我可没说你说的就对。 |
|
i****x 发帖数: 17565 | 48 没错,而且这个统计还缺失了重要信息,它统计的是每百万注册车年的死亡率,而不是
每百万注册车年每百万里程的死亡率。如果A车比B车开得更多,就更可能出事故,这是
个系统性缺失,而且数据相对容易得到(车辆年检),不知道为什么没有包含。
... |
|
D***n 发帖数: 6804 | 49 我以前遇到过经典分布出现local maxima的情况。
理论是全局唯一,但是前提必须是连续域,计算中需要离散化,就会出现local maxima。 |
|
i****x 发帖数: 17565 | 50 哈哈哈哈,一个B被你装的有声有色,这句话真的就是给你创造的啊:)
连什么local maxima都出来了哈哈哈,还单调收敛,还你应用过统计方法,就你这种水
平算平均值可能都困难,你下次去中学的时候可以甩出这些词来吓唬小孩,在phd云集
的MIT上也敢卖弄,你的情商完全就是个中学生水平:) |
|