由买买提看人间百态

topics

全部话题 - 话题: samplers
首页 上页 1 2 3 4 5 6 7 8 下页 末页 (共8页)
b****u
发帖数: 2771
1
来自主题: Chemistry版 - autosampler 老是吸不上样品
do you have a standard for QC regularly?
just inject the standard sample first.
There are so many possible factors you need to rule them out one by one.
One quick trick to make sure your sampler is drawing samples, is to weight a
vial with water, then inject a detectable amount (weight) and weight again.
z*****n
发帖数: 7639
2
Question1:
the sampler works at 100kHz. Then for the double sideband
signal with compressed carrier at 50kHz, the lower sideband
will pass through, the higer sideband will be regarded as
alias of lower one. So the effect is that the lower sideband
is doubled in amplitude. And this is the largest coefficient,
so the coefficents for the signal below 20kHz will be 1/2=0.5
this includes the DC gain.

忙.
sub-
second
z*****n
发帖数: 7639
3
If the input signal is baseband, such as NRZ or NRZI, the maximum
bit rate can be achieved is f_s: thinking of the worst case, which
the inputing bit pattern is 10101010... at f_s b/s, your sampler
takes sample at middle of each bit, you will get it.
However, this demands strict bitwise synchronization, as you will
find that when the sampling freq. drifts away from input signal
clock, you will eventually get error reception.
In practice, we often use over-sampling plus digital phase
loop-lock (D
s*****o
发帖数: 22187
4
试试用ahdlLib里的sampler?接在你要取样的输出,可以设定tsample。其实就是一个
取样的veriloga,你也可以自己写一个。这样做与仿真step无关,只不过是把
transient输出按等步长取样。当然transient step要远小于sample period。不知道是
不是你想要的。
Good Luck。
m*******e
发帖数: 21667
5
来自主题: Environmental版 - aerosol sampler
直接买筛网,自己做

find
anyone
n******v
发帖数: 2184
6
来自主题: Environmental版 - 生物气溶胶专业薄厚求助
你们group做bioaerosol吗?能推荐一些便宜的sampler,我想做一个pilot study,但是
不想花太多的钱。
O********9
发帖数: 59
7
来自主题: Mathematics版 - 这两天可真发愁阿.....
没弄明白你模型是什么。你说你的mean是Gaussian分布的,variance是Gamma分布的,
然后又说mean和variance是Normal-Inv-X^2分布。什么意思?
不过你的问题听上去是参数估计。一般有这么几种解法:
1. 设数据是y,待求参数是a。计算marginal likelihood function: f(y|a)。然后用
最大似然求a。当然marginal likelihood function不一定好求。
2. 如果模型复杂,有中间变量,可以试试expectation maximization (EM)。
3. 还可以用Gibbs sampling。特别你都是用conjugate prior的结构,那应该很容易推
导出Gibbs sampler。
4. 还可以试试variational method求参数的后验概率。
你可以看看这本书: Pattern Recognition and Machine Learning。很经典的参考书
。大部分篇幅是介绍Bayesian inference及其在machine learning 里面的应用。
l******r
发帖数: 18699
8
来自主题: Mathematics版 - statistics question
典型的rejecyive sampler问题。很简单呢
l******r
发帖数: 18699
9
来自主题: Mathematics版 - statistics question
典型的rejecyive sampler问题。很简单呢
p*******e
发帖数: 186
10
来自主题: Pharmaceutical版 - 有多少人用过96,384的全自动的PIPETTOR?
我是专门设计LIQUID HANDLING机器的,想了解一下大家有什么功能上的特殊要求,以便
设计新产品的时候考虑进去。我也做过AUTO SAMPLER用在LC/MS/MS方面,如果有特殊需
要,欢迎发个EMAIL给我。x*********[email protected]
b******n
发帖数: 54
11
来自主题: Statistics版 - BUGS software
BUGS is available free of charge at the following site:
http://www.mrc-bsu.cam.ac.uk/bugs/welcome.shtml
Personalily, I think its great for Bayesian, easy to use and very fexible, no
need to specify the conditional distributions, only need to specify the model,
data and starting values and BUGS will create the sampler.
s**********e
发帖数: 63
12
Bayesian 的可以通过matlab 实现:
Step 1: Gibbs Sampling - take marginal probability distribution of your
Estimate Result and run Gibbs Sampler. Starting value - Your OLS result or
whatever model you used to estimate the parameters.
Step 2: Get your posterior and and use Chibs method to yield the Log
Marginal (LME) Likelihood of each model. Take the exponents of the LME, then
you would derive your Marginal likelihood (ML). (Simply taking the
exponents of the LME), Add the ML of all of your models, they s
x*******i
发帖数: 1791
13
R里有,我非常确定。
matlab应该没有。 自己写一个应该很容易,用inverse cdf sampler。
l*******r
发帖数: 407
14
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
你有什么方法来计算多维积分那个标准化常数啊?
b*****n
发帖数: 685
15
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
两个问题:
1、如果只有一个参数...
2、如果有N多的参数,M-H效率比Gibbs高很多...
a********a
发帖数: 346
16
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
楼主看的那本书啊?我一直对Gibbs sampling 和MH 感觉心虚。也想学学。谢谢。
q**j
发帖数: 10612
17
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
多谢指教。请问MH里面可以想gibbs那样block by block sample,如果我的变量只有10
个。10一起sample,比6-2-2这样sample会差很多么?
q**j
发帖数: 10612
18
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
多谢。我是新手。你这个full conditional是指可以完全写出conditional
distribution,包括积分常数,吧?你的意思是如果可以一个一个的用MH,是最有效的
。对不对?找这样看,分成若干个block,比一起sample好。应该是这个道理吧?
b*****n
发帖数: 685
19
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
gibbs-in-MH?没听说过哎。
常用的是MH-in-gibbs。
l******r
发帖数: 18699
20
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
无所谓怎么叫了,反正是二者的结合而已
名字都是人起的:)
s*******t
发帖数: 45
21
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
Gibbs 用block的时候,auto correlation会相对影响小一些。
b*****n
发帖数: 685
22
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
是么?
MH-within-Gibbs是指整个MCMC是Gibbs,不过无法得到conditional posterior
distribution的显式表达所以用MH来获得conditional posterior sample。
Gibbs-within-MH是这意思吗?能否说明白点?
C******n
发帖数: 284
23
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
正如lookacar所说,这名称真无所谓
如果你一定要纠结,那就如有些人所习惯地称之为hybrid sampling
假如你有多个parameters,其中推倒不出full conditional的就用MH,推得出的就用
Gibbs
update them one by one
that's it
反正我是这样理解的, so far so good
q**j
发帖数: 10612
24
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
请问一般如何大概估计一下要sample多少次,头多少次的要扔掉?
看了chib and greenberg的文章,我对一次sample所有参数有了感性认识。但是对bloc
k by block update还是有问题。这样做每次的conditional distribution由于conditi
onal on的参数不同,都是应该是不同的函数。怎么肯定会converge呢?一个函数conve
rge还好理解,怎么理解一个family的函数一起converge?
当然我可能是杞人忧天了,应该有大牛做过理论证明的。纯粹是我的心理不好接受。请
问有没有人给个形象的解释或者例子。
q**j
发帖数: 10612
25
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
对于以下这段话我不太懂。如果分成两组,其中一组接受了;基于这个接受的,再
sample另外一组,被拒绝了。那么就还是生成了一组新observation。对不对。在MH里
面,每次都是能够得到一个新observation的。这个和accept-rejection method还是不
同的。对不对。
b*****n
发帖数: 685
26
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
呵呵,还是跟我说的一样嘛。
不过很多人做MCMC不严谨,有些人就凭想象乱作一通,根本不管detailed balance。这
个现象很不好。
q**j
发帖数: 10612
27
来自主题: Statistics版 - Metropolis Hastings vs. Gibbs sampler。
这个现象可以逐渐改善吧。matlab里面有MH的函数。以后MH和regression一样成了家常
便饭了。
l*********s
发帖数: 5409
28
it is a pity mitbbs does not support mathml
a*********r
发帖数: 139
29
Simulation by Ross has a very readable chapter that can help you understand
MCMC.
b*****n
发帖数: 685
30
不懂volatility是啥,估计就是说的y_t这个process了,说白了好像就是个有特殊形式
mean的Gaussian process,然后这个mean depend on一个AR process。关键是你要
estimate什么参数?
g********r
发帖数: 8017
31
就事论事也是fit不行。这个topic不难做。做的人少是因为用途不广理论不新。弄个
gibbs sampler就能精确估计断点,置信区间想要的话也有,可是没有统计杂志会发表
它。
那个simulation我没存code。就那么几行嘛。选段点,断点见线性,加高斯噪音。
g*****o
发帖数: 4
32
来自主题: Statistics版 - Who is this year'copss award winner?
Storey 也年轻呀.他比Kou还年轻吧?
Kou的理论工作:Geometric approach to model comparison, Equi-enery sampler
有关文章在这看得到
http://www.people.fas.harvard.edu/~skou/
Storey当年的q-value一鸣惊人,当然很牛,很可能是以后的COPSS的得主,
但要在Storey和KOU之间只有一个可以拿,我个人认为KOU更DESERVE IT.
f*******s
发帖数: 57
33
来自主题: Statistics版 - Who is this year'copss award winner?
Sam has done some interesting work in MCMC, e.g. EE sampler. Also it's
unfair to say what he did in single molecule models are purely applied. His
work openned some new directions in this area, which has the same impact as
many of the great theoretical breakthrough. Don't be so cynical.
g********r
发帖数: 8017
34
来自主题: Statistics版 - Who is this year'copss award winner?
Equi-enery sampler 跟周晴共同一作吧。那是不是周晴也顶级牛人了?
g********r
发帖数: 8017
35
来自主题: Statistics版 - Who is this year'copss award winner?
我不明白这个equi-engergy sampler的重要,只是知道周也做了。看人提了kou因为这
个牛就跟着瞎说的。话说那么多AOS,高人们怎么判断哪一篇是经典大作啊?
R*******c
发帖数: 249
36
来自主题: Statistics版 - 求paper
Bayesian Computation Via the Gibbs Sampler and Related Markov-chain Monte-
carlo Methods
by SMITH,AFM and ROBERTS,GO
JOURNAL OF THE ROYAL STATISTICAL SOCIETY SERIES B-METHODOLOGICAL 55 (1): 3-
23 1993
Thanks~~
z*******n
发帖数: 15481
37
你是frequentist 还是 bayesian?
frequentist的话算MLE 然后inverse of fishier information matrix是estimate的
variance
bayesian的话用MCMC sampler去sample 那些参数的posterior distribution 然后
sample mean作为参数的估计值
如需更多细节 发几个包子吧 我给你发pdf文件 呵呵
p********a
发帖数: 5352
38
☆─────────────────────────────────────☆
cici (full house) 于 (Mon Nov 7 08:33:47 2011, 美东) 提到:
对于logistic regression
log(pi/1-pi)=b0+b1x1+b2x2
我现在已知independent variables和response variable{log(pi/1-pi)}
我要怎么做才能把参数b0,b1,b2 fit出来?非常感谢
☆─────────────────────────────────────☆
sleephare (I+don't+know.) 于 (Mon Nov 7 14:16:38 2011, 美东) 提到:
SAS, R?

☆─────────────────────────────────────☆
cici (full house) 于 (Mon Nov 7 16:19:05 2011, 美东) 提到:
R,thanks
☆────────────────────────────────────... 阅读全帖
h******3
发帖数: 190
39
Is there any theory that says the algorithm will eventually converge to the
right distribution regardless of the starting values?
thanks~
m********9
发帖数: 208
40
SLLN
h******3
发帖数: 190
41
谢谢你. 我其实只想知道是不是最终都可以converge到true distribution regardless
of starting values.
g*******i
发帖数: 258
42
it should be. This is the idea of Gelman-Rubin convergence diagnostic
if the markov chain has good mixing, then no matter where you start, it will
converge to a same level

regardless
c****6
发帖数: 758
43
我用proc surveyselect method=srs samplerate=.5 和ranuni()>.5 都选过sample,
发现surveyselect 每次选的都是都刚刚好50%,而ranuni选的就会没那么刚好。
我查不到太多信息,那位高手知道surveyslect用的什么random number generator and
selection algorithm 选的? 谢谢!
a*********x
发帖数: 7174
44
哎呀~之前很开心的玩了好多lomo相机结果都没哪去洗~(蠕动)
唯一洗出来的是action sampler,一张拍4小张的那种~
结果洗出来超奇怪的,里面一大半的照片都是不是4张在一个frame里面~
是3张然后+一张别张拍的~@__@
l*****s
发帖数: 1754
45
来自主题: PhotoProcessing版 - 新手练习磨个皮
1.remove small imperfections - Used portraiture, also increased skind
contrast, and sharpened whole image at the same time.
2.Used spot healing to touchup large imperfections
3.Adjust colors using florrabella, classic color 100%, swoon 35%, then
flatten image
4. sharpen - applied 20 pixel highpass filer over eyes and lips at 10%
transparency
applied 500% unshapenmask, 1 pixel, 10% transparency over eyes and lips.
5.check skin colors - use color sampler to get a cmyk reading of highlight
skin whe... 阅读全帖
l*****s
发帖数: 1754
46
来自主题: PhotoProcessing版 - 新手练习磨个皮
1.remove small imperfections - Used portraiture, also increased skind
contrast, and sharpened whole image at the same time.
2.Used spot healing to touchup large imperfections
3.Adjust colors using florrabella, classic color 100%, swoon 35%, then
flatten image
4. sharpen - applied 20 pixel highpass filer over eyes and lips at 10%
transparency
applied 500% unshapenmask, 1 pixel, 10% transparency over eyes and lips.
5.check skin colors - use color sampler to get a cmyk reading of highlight
skin whe... 阅读全帖
A****c
发帖数: 68
47
6月底搬家,所有物品都低价转卖,基本都是全新购入的,用的时间都不长
欢迎站内信联系
1. Almost new 4-drawer chest with glass top for $80 bought from Ikea
宜家的五斗橱 带玻璃表面 $ 80 原价¥199
2. Almost new Bookshelf for $20 bought from Ikea
配套的书柜 $20 原价 $69
3. Almost new Fender CD-60 Dreadnought Acoustic Guitar Black with case for
120
musicaial friend买的Fender CD-60 吉他 基本没用过,低于半价出售,带黑色外壳 $
120
bought from http://www.zlmtz.com/wp-post.php?K0JrJry
4. Almost new Casio 61 Piano Style Key Keyboard Includes Sound EFX Sampler,
Stand, and Adapter - Black
targ... 阅读全帖
l********k
发帖数: 613
48
大致看了下着篇paper,我不是学统计的,大家讨论一下。
我的理解是因为他这个model没有办法拿到所有的数据(这个model的设计导致了
missing data的必然发生),所以他没有data去estimate他需要的Prior distribution
parameters。所以他用了standard的distributions去generate了一个完全non-
informative的priors。这里他选用InvGamma(1,1)是因为这个是经常用到的normal分布
的non-informative prior distribution。不知道怎么解释为什么选择alpha, beta都
是1,可能这是最简单的选择吧。
同样也没有理解他选择generalized beta(1,1)的原因。假定了这个分布,他然后用了
Gibbs sampler去sample了符合GenBeta的分布的点,用这些点去estimate covariances.
所以我的理解是这些prior并没有任何informative的东西,最后的Posterior还是主要
靠算likelihood,P(X... 阅读全帖
l********k
发帖数: 613
49
不能算指导,就是讨论吧。
如果prior设成都是uniform distribution,我不知道结果会不会差别很大,我倾向于相
信结果应该相差不大。我做过几个Project为了simplify,很多prior都假设成为
uniform distribution的。你如果非常感兴趣,你可以自己实验一下,然后来说说结果。
Gibbs sampler的初始sample值都是随机选择的或者用其他的heuristic(如果有的话)
设定的吧。转移矩阵里面的值应该是conditional probabilities.
第一次看到inspection paradox,挺有趣的,看了下别人的blog,对你的问题的回答是
不能千篇一律的把用bayesian的概率算法都加上时间,这种现象发生在当你在inspect
一个process之中的一个时间点/段的时候,所以我认为,当你在看整个process的时候
,计算marginal probability的时候不必要把时间也包含进去做adjustment。
m***r
发帖数: 359
50
来自主题: DataSciences版 - 机器学习日报
机器学习日报 2015-01-30
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-01-30/short.html
1) 【全新ArnetMiner上线】 by @ArnetMiner
关键词:学术搜索
全新ArnetMiner上线,最新代号AMiner,从学术网络中挖掘深度知识、面向科技大数据
的挖掘。收集近4000万作者信息、8000万论文信息、1亿多引用关系、链接近8百万知识
点;支持专家搜索、机构排名、科研成果评价、会议排名。期待您的关注和建议【系统
持续改进中】。 @唐杰THU @好东西传送门
2) 【MinHash】 by @赵印_Eason
关键词:算法, 聚类
《MinHash》 MinHash是一种概率意义的聚类算法,快速实现,有随机因素。 在推荐场
景: It assigns a pair of users to the same cluster... 阅读全帖
首页 上页 1 2 3 4 5 6 7 8 下页 末页 (共8页)