您的位置首页生活百科

lsd法与t检验

lsd法与t检验

snk为student-newman-keuls三人姓氏的缩写,检验统计量为q

,亦称q检验,适用于多个均数的两两比较,常用于探索性研究。

只告诉有无差异,不提供精确p值。

lsd为最小显著差异(least

significant

difference)t检验。适用于某一对或几对在专业上有非凡价值的均数间差别的比较。

提供p值。

“课本上在进行两两比较用的是snk,但是有人认为snk出现假阳性的机率高。进行两两比较的时候,假如是验证性研究用bonferroni(lsd)比较好,假如是探索性研究且各组人数相同用turkey法较好,其他的用scheffe较好”

没搞清楚这两者在使用时的差别,请问高手能否通俗的讲讲,附带实例更好

似乎是lsd法得出的p值稍小,在p值接近0.05的时候,比较轻易得出有统计学差异,而snk方法得出的p值比较保守,相对不易得出p小于0.05。

似乎是lsd法得出的p值稍小,在p值接近0.05的时候,比较轻易得出有统计学差异,而snk方法得出的p值比较保守,相对不易得出p小于0.05。

等待高手的解答。

lsd是最灵敏的,轻易出现假阳性结果crust版:

一般多个均数间的两两比较我们都用q检验。lsd一般用于设计的时候已经确定的某些组之间的比较(如a和b,c和d),而其他组间不必进行比较。假如所有组间都要比较用lsd的话会增加第一类错误的概率。

另外,dunnett法则适用于多个实验组均数与对照组均数间的比较。

evolution版:

lsd

<

ssr

<

q法

多重检验多使用q法。

lsd本质上是稍作改进的t检验,即将原来两两比较的不同标准误换成统一的标准误,所以累积i型错误概率的问题依然没有摆脱。因此,假如实际分析中一定要用这个简单的检验法,可以通过bonferroni

校正法将显著性水准调小到积累i型错误概率不超过单比较时的水准。谢谢shiqingsun,evolution,csust,新新手等诸位斑竹的解答

稍微准确一点说,bonferroni只是把cutoff

value除以检验次数,也就等同于把p值乘以检验次数并truncate到0-1之间。好处是这样做错误率永远都可以控制住;问题时通常实在效能太低了,特别是检验成千上万个假设的时候,校正后的p值经常是一大片1。

lsd通过两步来控制错误率,如果所有均值都相等,那么错误率可以控制住;