b****u 发帖数: 2771 | 1 do you have a standard for QC regularly?
just inject the standard sample first.
There are so many possible factors you need to rule them out one by one.
One quick trick to make sure your sampler is drawing samples, is to weight a
vial with water, then inject a detectable amount (weight) and weight again. |
|
z*****n 发帖数: 7639 | 2 Question1:
the sampler works at 100kHz. Then for the double sideband
signal with compressed carrier at 50kHz, the lower sideband
will pass through, the higer sideband will be regarded as
alias of lower one. So the effect is that the lower sideband
is doubled in amplitude. And this is the largest coefficient,
so the coefficents for the signal below 20kHz will be 1/2=0.5
this includes the DC gain.
忙.
sub-
second |
|
z*****n 发帖数: 7639 | 3 If the input signal is baseband, such as NRZ or NRZI, the maximum
bit rate can be achieved is f_s: thinking of the worst case, which
the inputing bit pattern is 10101010... at f_s b/s, your sampler
takes sample at middle of each bit, you will get it.
However, this demands strict bitwise synchronization, as you will
find that when the sampling freq. drifts away from input signal
clock, you will eventually get error reception.
In practice, we often use over-sampling plus digital phase
loop-lock (D |
|
s*****o 发帖数: 22187 | 4 试试用ahdlLib里的sampler?接在你要取样的输出,可以设定tsample。其实就是一个
取样的veriloga,你也可以自己写一个。这样做与仿真step无关,只不过是把
transient输出按等步长取样。当然transient step要远小于sample period。不知道是
不是你想要的。
Good Luck。 |
|
|
n******v 发帖数: 2184 | 6 你们group做bioaerosol吗?能推荐一些便宜的sampler,我想做一个pilot study,但是
不想花太多的钱。 |
|
O********9 发帖数: 59 | 7 没弄明白你模型是什么。你说你的mean是Gaussian分布的,variance是Gamma分布的,
然后又说mean和variance是Normal-Inv-X^2分布。什么意思?
不过你的问题听上去是参数估计。一般有这么几种解法:
1. 设数据是y,待求参数是a。计算marginal likelihood function: f(y|a)。然后用
最大似然求a。当然marginal likelihood function不一定好求。
2. 如果模型复杂,有中间变量,可以试试expectation maximization (EM)。
3. 还可以用Gibbs sampling。特别你都是用conjugate prior的结构,那应该很容易推
导出Gibbs sampler。
4. 还可以试试variational method求参数的后验概率。
你可以看看这本书: Pattern Recognition and Machine Learning。很经典的参考书
。大部分篇幅是介绍Bayesian inference及其在machine learning 里面的应用。 |
|
l******r 发帖数: 18699 | 8 典型的rejecyive sampler问题。很简单呢 |
|
l******r 发帖数: 18699 | 9 典型的rejecyive sampler问题。很简单呢 |
|
p*******e 发帖数: 186 | 10 我是专门设计LIQUID HANDLING机器的,想了解一下大家有什么功能上的特殊要求,以便
设计新产品的时候考虑进去。我也做过AUTO SAMPLER用在LC/MS/MS方面,如果有特殊需
要,欢迎发个EMAIL给我。x*********[email protected] |
|
b******n 发帖数: 54 | 11 BUGS is available free of charge at the following site:
http://www.mrc-bsu.cam.ac.uk/bugs/welcome.shtml
Personalily, I think its great for Bayesian, easy to use and very fexible, no
need to specify the conditional distributions, only need to specify the model,
data and starting values and BUGS will create the sampler. |
|
s**********e 发帖数: 63 | 12 Bayesian 的可以通过matlab 实现:
Step 1: Gibbs Sampling - take marginal probability distribution of your
Estimate Result and run Gibbs Sampler. Starting value - Your OLS result or
whatever model you used to estimate the parameters.
Step 2: Get your posterior and and use Chibs method to yield the Log
Marginal (LME) Likelihood of each model. Take the exponents of the LME, then
you would derive your Marginal likelihood (ML). (Simply taking the
exponents of the LME), Add the ML of all of your models, they s |
|
x*******i 发帖数: 1791 | 13 R里有,我非常确定。
matlab应该没有。 自己写一个应该很容易,用inverse cdf sampler。 |
|
|
b*****n 发帖数: 685 | 15 两个问题:
1、如果只有一个参数...
2、如果有N多的参数,M-H效率比Gibbs高很多... |
|
a********a 发帖数: 346 | 16 楼主看的那本书啊?我一直对Gibbs sampling 和MH 感觉心虚。也想学学。谢谢。 |
|
q**j 发帖数: 10612 | 17 多谢指教。请问MH里面可以想gibbs那样block by block sample,如果我的变量只有10
个。10一起sample,比6-2-2这样sample会差很多么? |
|
q**j 发帖数: 10612 | 18 多谢。我是新手。你这个full conditional是指可以完全写出conditional
distribution,包括积分常数,吧?你的意思是如果可以一个一个的用MH,是最有效的
。对不对?找这样看,分成若干个block,比一起sample好。应该是这个道理吧? |
|
b*****n 发帖数: 685 | 19 gibbs-in-MH?没听说过哎。
常用的是MH-in-gibbs。 |
|
l******r 发帖数: 18699 | 20 无所谓怎么叫了,反正是二者的结合而已
名字都是人起的:) |
|
s*******t 发帖数: 45 | 21 Gibbs 用block的时候,auto correlation会相对影响小一些。 |
|
b*****n 发帖数: 685 | 22 是么?
MH-within-Gibbs是指整个MCMC是Gibbs,不过无法得到conditional posterior
distribution的显式表达所以用MH来获得conditional posterior sample。
Gibbs-within-MH是这意思吗?能否说明白点? |
|
C******n 发帖数: 284 | 23 正如lookacar所说,这名称真无所谓
如果你一定要纠结,那就如有些人所习惯地称之为hybrid sampling
假如你有多个parameters,其中推倒不出full conditional的就用MH,推得出的就用
Gibbs
update them one by one
that's it
反正我是这样理解的, so far so good |
|
q**j 发帖数: 10612 | 24 请问一般如何大概估计一下要sample多少次,头多少次的要扔掉?
看了chib and greenberg的文章,我对一次sample所有参数有了感性认识。但是对bloc
k by block update还是有问题。这样做每次的conditional distribution由于conditi
onal on的参数不同,都是应该是不同的函数。怎么肯定会converge呢?一个函数conve
rge还好理解,怎么理解一个family的函数一起converge?
当然我可能是杞人忧天了,应该有大牛做过理论证明的。纯粹是我的心理不好接受。请
问有没有人给个形象的解释或者例子。 |
|
q**j 发帖数: 10612 | 25 对于以下这段话我不太懂。如果分成两组,其中一组接受了;基于这个接受的,再
sample另外一组,被拒绝了。那么就还是生成了一组新observation。对不对。在MH里
面,每次都是能够得到一个新observation的。这个和accept-rejection method还是不
同的。对不对。 |
|
b*****n 发帖数: 685 | 26 呵呵,还是跟我说的一样嘛。
不过很多人做MCMC不严谨,有些人就凭想象乱作一通,根本不管detailed balance。这
个现象很不好。 |
|
q**j 发帖数: 10612 | 27 这个现象可以逐渐改善吧。matlab里面有MH的函数。以后MH和regression一样成了家常
便饭了。 |
|
l*********s 发帖数: 5409 | 28 it is a pity mitbbs does not support mathml |
|
a*********r 发帖数: 139 | 29 Simulation by Ross has a very readable chapter that can help you understand
MCMC. |
|
b*****n 发帖数: 685 | 30 不懂volatility是啥,估计就是说的y_t这个process了,说白了好像就是个有特殊形式
mean的Gaussian process,然后这个mean depend on一个AR process。关键是你要
estimate什么参数? |
|
g********r 发帖数: 8017 | 31 就事论事也是fit不行。这个topic不难做。做的人少是因为用途不广理论不新。弄个
gibbs sampler就能精确估计断点,置信区间想要的话也有,可是没有统计杂志会发表
它。
那个simulation我没存code。就那么几行嘛。选段点,断点见线性,加高斯噪音。 |
|
g*****o 发帖数: 4 | 32 Storey 也年轻呀.他比Kou还年轻吧?
Kou的理论工作:Geometric approach to model comparison, Equi-enery sampler
有关文章在这看得到
http://www.people.fas.harvard.edu/~skou/
Storey当年的q-value一鸣惊人,当然很牛,很可能是以后的COPSS的得主,
但要在Storey和KOU之间只有一个可以拿,我个人认为KOU更DESERVE IT. |
|
f*******s 发帖数: 57 | 33 Sam has done some interesting work in MCMC, e.g. EE sampler. Also it's
unfair to say what he did in single molecule models are purely applied. His
work openned some new directions in this area, which has the same impact as
many of the great theoretical breakthrough. Don't be so cynical. |
|
g********r 发帖数: 8017 | 34 Equi-enery sampler 跟周晴共同一作吧。那是不是周晴也顶级牛人了? |
|
g********r 发帖数: 8017 | 35 我不明白这个equi-engergy sampler的重要,只是知道周也做了。看人提了kou因为这
个牛就跟着瞎说的。话说那么多AOS,高人们怎么判断哪一篇是经典大作啊? |
|
R*******c 发帖数: 249 | 36 Bayesian Computation Via the Gibbs Sampler and Related Markov-chain Monte-
carlo Methods
by SMITH,AFM and ROBERTS,GO
JOURNAL OF THE ROYAL STATISTICAL SOCIETY SERIES B-METHODOLOGICAL 55 (1): 3-
23 1993
Thanks~~ |
|
z*******n 发帖数: 15481 | 37 你是frequentist 还是 bayesian?
frequentist的话算MLE 然后inverse of fishier information matrix是estimate的
variance
bayesian的话用MCMC sampler去sample 那些参数的posterior distribution 然后
sample mean作为参数的估计值
如需更多细节 发几个包子吧 我给你发pdf文件 呵呵 |
|
p********a 发帖数: 5352 | 38 ☆─────────────────────────────────────☆
cici (full house) 于 (Mon Nov 7 08:33:47 2011, 美东) 提到:
对于logistic regression
log(pi/1-pi)=b0+b1x1+b2x2
我现在已知independent variables和response variable{log(pi/1-pi)}
我要怎么做才能把参数b0,b1,b2 fit出来?非常感谢
☆─────────────────────────────────────☆
sleephare (I+don't+know.) 于 (Mon Nov 7 14:16:38 2011, 美东) 提到:
SAS, R?
☆─────────────────────────────────────☆
cici (full house) 于 (Mon Nov 7 16:19:05 2011, 美东) 提到:
R,thanks
☆────────────────────────────────────... 阅读全帖 |
|
h******3 发帖数: 190 | 39 Is there any theory that says the algorithm will eventually converge to the
right distribution regardless of the starting values?
thanks~ |
|
|
h******3 发帖数: 190 | 41 谢谢你. 我其实只想知道是不是最终都可以converge到true distribution regardless
of starting values. |
|
g*******i 发帖数: 258 | 42 it should be. This is the idea of Gelman-Rubin convergence diagnostic
if the markov chain has good mixing, then no matter where you start, it will
converge to a same level
regardless |
|
c****6 发帖数: 758 | 43 我用proc surveyselect method=srs samplerate=.5 和ranuni()>.5 都选过sample,
发现surveyselect 每次选的都是都刚刚好50%,而ranuni选的就会没那么刚好。
我查不到太多信息,那位高手知道surveyslect用的什么random number generator and
selection algorithm 选的? 谢谢! |
|
a*********x 发帖数: 7174 | 44 哎呀~之前很开心的玩了好多lomo相机结果都没哪去洗~(蠕动)
唯一洗出来的是action sampler,一张拍4小张的那种~
结果洗出来超奇怪的,里面一大半的照片都是不是4张在一个frame里面~
是3张然后+一张别张拍的~@__@ |
|
l*****s 发帖数: 1754 | 45 1.remove small imperfections - Used portraiture, also increased skind
contrast, and sharpened whole image at the same time.
2.Used spot healing to touchup large imperfections
3.Adjust colors using florrabella, classic color 100%, swoon 35%, then
flatten image
4. sharpen - applied 20 pixel highpass filer over eyes and lips at 10%
transparency
applied 500% unshapenmask, 1 pixel, 10% transparency over eyes and lips.
5.check skin colors - use color sampler to get a cmyk reading of highlight
skin whe... 阅读全帖 |
|
l*****s 发帖数: 1754 | 46 1.remove small imperfections - Used portraiture, also increased skind
contrast, and sharpened whole image at the same time.
2.Used spot healing to touchup large imperfections
3.Adjust colors using florrabella, classic color 100%, swoon 35%, then
flatten image
4. sharpen - applied 20 pixel highpass filer over eyes and lips at 10%
transparency
applied 500% unshapenmask, 1 pixel, 10% transparency over eyes and lips.
5.check skin colors - use color sampler to get a cmyk reading of highlight
skin whe... 阅读全帖 |
|
A****c 发帖数: 68 | 47 6月底搬家,所有物品都低价转卖,基本都是全新购入的,用的时间都不长
欢迎站内信联系
1. Almost new 4-drawer chest with glass top for $80 bought from Ikea
宜家的五斗橱 带玻璃表面 $ 80 原价¥199
2. Almost new Bookshelf for $20 bought from Ikea
配套的书柜 $20 原价 $69
3. Almost new Fender CD-60 Dreadnought Acoustic Guitar Black with case for
120
musicaial friend买的Fender CD-60 吉他 基本没用过,低于半价出售,带黑色外壳 $
120
bought from http://www.zlmtz.com/wp-post.php?K0JrJry
4. Almost new Casio 61 Piano Style Key Keyboard Includes Sound EFX Sampler,
Stand, and Adapter - Black
targ... 阅读全帖 |
|
l********k 发帖数: 613 | 48 大致看了下着篇paper,我不是学统计的,大家讨论一下。
我的理解是因为他这个model没有办法拿到所有的数据(这个model的设计导致了
missing data的必然发生),所以他没有data去estimate他需要的Prior distribution
parameters。所以他用了standard的distributions去generate了一个完全non-
informative的priors。这里他选用InvGamma(1,1)是因为这个是经常用到的normal分布
的non-informative prior distribution。不知道怎么解释为什么选择alpha, beta都
是1,可能这是最简单的选择吧。
同样也没有理解他选择generalized beta(1,1)的原因。假定了这个分布,他然后用了
Gibbs sampler去sample了符合GenBeta的分布的点,用这些点去estimate covariances.
所以我的理解是这些prior并没有任何informative的东西,最后的Posterior还是主要
靠算likelihood,P(X... 阅读全帖 |
|
l********k 发帖数: 613 | 49 不能算指导,就是讨论吧。
如果prior设成都是uniform distribution,我不知道结果会不会差别很大,我倾向于相
信结果应该相差不大。我做过几个Project为了simplify,很多prior都假设成为
uniform distribution的。你如果非常感兴趣,你可以自己实验一下,然后来说说结果。
Gibbs sampler的初始sample值都是随机选择的或者用其他的heuristic(如果有的话)
设定的吧。转移矩阵里面的值应该是conditional probabilities.
第一次看到inspection paradox,挺有趣的,看了下别人的blog,对你的问题的回答是
不能千篇一律的把用bayesian的概率算法都加上时间,这种现象发生在当你在inspect
一个process之中的一个时间点/段的时候,所以我认为,当你在看整个process的时候
,计算marginal probability的时候不必要把时间也包含进去做adjustment。 |
|
m***r 发帖数: 359 | 50 机器学习日报 2015-01-30
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-01-30/short.html
1) 【全新ArnetMiner上线】 by @ArnetMiner
关键词:学术搜索
全新ArnetMiner上线,最新代号AMiner,从学术网络中挖掘深度知识、面向科技大数据
的挖掘。收集近4000万作者信息、8000万论文信息、1亿多引用关系、链接近8百万知识
点;支持专家搜索、机构排名、科研成果评价、会议排名。期待您的关注和建议【系统
持续改进中】。 @唐杰THU @好东西传送门
2) 【MinHash】 by @赵印_Eason
关键词:算法, 聚类
《MinHash》 MinHash是一种概率意义的聚类算法,快速实现,有随机因素。 在推荐场
景: It assigns a pair of users to the same cluster... 阅读全帖 |
|