3

翻译:常见统计检验的本质都是线性模型(或:如何教统计学)

 3 years ago
source link: https://cosx.org/2019/09/common-tests-as-linear-models/
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

翻译:常见统计检验的本质都是线性模型(或:如何教统计学)

Jonas Kristoffer Lindeløv

关键词:统计检验; 线性模型; 统计教学

译者:黄俊文;校对:蔡占锐、谢益辉、黄湘云;编辑:孙腾飞、任焱

本文翻译自 Jonas Kristoffer LindeløvCommon statistical tests are linear models (or: how to teach stats),翻译工作已获得原作授权。本翻译工作首发于统计之都网站和微信公众号上。

本文将常见的参数和“非参”数检验统一用线性模型来表示,在同一个框架下, 我们可以看到不同检验之间的许多相似之处,极富思考性和启发性。点击链接可获得一份 PDF 电子版HTML 网页版

1 常见检验的本质

大部分常见的统计模型(t 检验、相关性检验、方差分析(ANOVA)、卡方检验等) 是线性模型的特殊情况或者是非常好的近似。这种优雅的简洁性意味着我们学习起来不需要掌握太多的技巧。具体来说,这都来源于大部分学生从高中就学习的模型:y=a⋅x+b。 然而很不幸的是,统计入门课程通常把各种检验分开教学,给学生和老师们增加了很多不必要的麻烦。在学习每一个检验的基本假设时,如果不是从线性模型切入,而是每个检验都死记硬背,这种复杂性又会成倍增加。因此,我认为先教线性模型,然后对线性模型的一些特殊形式进行改名是一种优秀的教学策略,这有助于更深刻地理解假设检验。线性模型在频率学派、贝叶斯学派和基于置换的U检验的统计推断之间是相通的,对初学者而言,从模型开始比从 P 值、第 I 类错误、贝叶斯因子或其它地方更为友好。

在入门课程教授“非参”数检验的时候,可以避开 骗小孩 的手段,直接告诉学生“非参”检验其实就是和秩相关的参数检验。对学生来说,接受秩的概念比相信你可以神奇地放弃各种假设好的多。实际上,在统计软件 JASP 里,“非参”检验的贝叶斯等价模型就是使用 潜秩(Latent Rank)来实现的。频率学派的“非参”检验在样本量 N>15 的时非常准确。

shutterstock_336913772.jpg

来源教材两章节,有很多类似(尽管更为散乱)的材料。我希望你们可以一起来提供优化建议,或者直接在 Github 提交修改。让我们一起来使本文章变得更棒!

2 设置和示例数据

如果你想查看函数和本笔记的其它设置的话,可以展开这片代码查看:


(tidyverse)
(patchwork)
(broom)


set.seed()


rnorm_fixed <- (N, mu = , sd = )
  scale(rnorm(N)) * sd + mu


theme_axis <- (P, jitter = ,
                       xlim = c(-, ),
                       ylim = c(-, ),
                       legend.position = ) {
  P <- P + theme_bw() +
    geom_segment(
      x = -, xend = ,
      y = , yend = ,
      lty = , color = , lwd = 
    ) +
    geom_segment(
      x = , xend = ,
      y = -, yend = ,
      lty = , color = , lwd = 
    ) +
    coord_cartesian(xlim = xlim, ylim = ylim) +
    theme(
      axis.title = element_blank(),
      axis.text = element_blank(),
      axis.ticks = element_blank(),
      panel.border = element_blank(),
      panel.grid = element_blank(),
      legend.position = legend.position
    )

  
   (jitter) {
    P + geom_jitter(width = , size = )
  }
   {
    P + geom_point(size = )
  }
}

一开始,我们简单点,使用三组正态分布数据,且整理为宽(abc)和长(valuegroup)格式:

# Wide format (sort of)
# y = rnorm_fixed(50, mu=0.3, sd=2)  # Almost zero mean.
y <- c(rnorm(15), exp(rnorm(15)), runif(20, min = -3, max = 0)) # Almost zero mean, not normal
x <- rnorm_fixed(50, mu = 0, sd = 1) # Used in correlation where this is on x-axis
y2 <- rnorm_fixed(50, mu = 0.5, sd = 1.5) # Used in two means

# Long format data with indicator
value <- c(y, y2)
group <- rep(c("y1", "y2"), each = 50)

3 Pearson 相关性和 Spearman 相关性

3.1 理论:作为线性模型

模型:y 的形式是一个斜率(β1)乘以 x 加上一个截距(β0),也就是一条直线。

y=β0+β1xH0:β1=0

以上模型,实际上是我们熟悉的旧公式 y=ax+b (这里书写顺序变为 y=b+ax)1的一个更数学化的表达。在 R 软件里面,我们比较懒,所以写成了 y ~ 1 + x,R 对此理解为 y=1×数+x×另一个数,而且,t 检验,线性回归等等都只是去寻找能够最好地预测 y 的数字。

无论你怎么书写,截距(β0)和斜率(β1)都可以确定一条直线:


D_correlation <- data.frame(MASS::mvrnorm(,
  mu = c(, ),
  Sigma = matrix(c(, , , ), ncol = ),
  empirical = 
)) 


D_correlation$label_num <- sprintf(, D_correlation$X1, D_correlation$X2)
D_correlation$label_rank <- sprintf(, rank(D_correlation$X1), rank(D_correlation$X2))


fit <- lm(I(X2 *  + ) ~ I(X1 *  + ), D_correlation)
intercept_pearson <- coefficients(fit)[]

P_pearson <- ggplot(D_correlation, aes(x = X1 *  + , y = X2 *  + )) +
  geom_smooth(method = lm, se = , lwd = , aes(colour = )) +
  geom_segment(
    x = -, xend = ,
    y = intercept_pearson, yend = intercept_pearson,
    lwd = , aes(color = )
  ) +
  scale_color_manual(name = , values = c(, ), 
                     labels = c(bquote(beta[] * ), 
                                bquote(beta[] * )))

theme_axis(P_pearson, legend.position = c(, ))

unnamed-chunk-4-1.svg

这是所谓的回归模型,当右边有多个 β 和自变量相乘的时候,它扩展为多元回归。以下的所有模型,从 单样本 t 检验双因素方差分析,都是这个模型的特殊形式,不多不少。

顾名思义,Spearman 秩相关系数就是 x 和 y 的秩变换后的Pearson 相关系数

rank(y)=β0+β1⋅rank(x)H0:β1=0

很快我就会介绍 这个概念。现在,线性模型的相关系数等价于“真正的” Pearson 相关系数,但 P 值是近似值,这个近似值适用于 N>10 的情况,并且在 N>20 时 几乎完美

很多学生都没有意识到这么漂亮和神奇的等价关系!给线性回归带上数据标签来,我们可立刻看到秩转换过程:


intercept_spearman <- coefficients(lm(rank(X2) ~ rank(X1), D_correlation))[]


P_spearman <- ggplot(D_correlation, aes(x = rank(X1), y = rank(X2))) +
  geom_smooth(method = lm, se = , lwd = , aes(color = )) +
  geom_text(aes(label = label_rank), nudge_y = , size = , color = ) +
  geom_segment(
    x = -, xend = ,
    y = intercept_spearman, yend = intercept_spearman,
    lwd = , aes(color = )
  ) +
  scale_color_manual(name = , values = c(, ), 
                     labels = c(bquote(beta[] * ), 
                                bquote(beta[] * )))


(theme_axis(P_pearson, legend.position = c(, )) + 
    geom_text(aes(label = label_num), nudge_y = , size = , color = ) +
    labs(title = )) +
(theme_axis(P_spearman, xlim = c(-, ), ylim = c(-, ), 
              legend.position = c(, )) + 
     labs(title = ))

unnamed-chunk-5-1.svg

3.2 理论:秩转换

对于一串数字,秩(rank)意思是使用它们的排序号来替换它们(第 1 最小的,第 2 最小的,第 3 最小的,以此类推)。因此 rank(c(3.6, 3.4, -5.0, 8.2)) 的秩转换结果是 3, 2, 1, 4。从上面的图形里看出来了吗?符号秩是一样的,先根据绝对值排序,再添加上数值前面的符号。所以上面的符号秩是 2, 1, -3, 4。用代码表示如下:

signed_rank = function(x) sign(x) * rank(abs(x))

我希望我说秩很容易理解的时候没有冒犯到其他人。这就是转换大部分“非参”数检验到它们的对应参数检验所要做的全部事情!一个重要的推论是很多“非参”检验和它们的对应参数检验版本都有一致的参数:均值、标准差、齐次方差等等 —— 区别在于它们是在秩转换后的数据上计算的。这是为什么我把“非参”用引号包起来。

3.2.1 R 代码:Pearson 相关系数

在 R 里运行这些模型再容易不过了。它们产生相同的 p 值和 t 值,但是这里有个问题:lm 返回斜率,尽管它通常比相关系数 r 更容易理解和反映了更多信息,但你依然想得到 r 值。幸运地,如果 xy 有相同的标准差,斜率就会变成 r。所以,在这里我们使用 scale(x) 使得 SD(x)=1.0 和 SD(y)=1.0:

a <- cor.test(y, x, method = "pearson") # Built-in
b <- lm(y ~ 1 + x) # Equivalent linear model: y = Beta0*1 + Beta1*x
c <- lm(scale(y) ~ 1 + scale(x)) # On scaled vars to recover r
modelp.valuetrconf.lowconf.highcor.test0.738-0.3365-0.0485-0.32250.233lm scaled0.738-0.3365-0.0485-0.33840.2414lm0.738-0.3365-0.0872-0.60810.4337
## 
##  Pearson's product-moment correlation
## 
## data:  y and x
## t = -0.33651, df = 48, p-value = 0.738
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
##  -0.3225066  0.2329799
## sample estimates:
##         cor 
## -0.04851394 
## 
## 
## Call:
## lm(formula = y ~ 1 + x)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -2.6265 -1.1753 -0.3718  0.6607  5.7109 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept) -0.09522    0.25647  -0.371    0.712
## x           -0.08718    0.25907  -0.337    0.738
## 
## Residual standard error: 1.814 on 48 degrees of freedom
## Multiple R-squared:  0.002354,   Adjusted R-squared:  -0.01843 
## F-statistic: 0.1132 on 1 and 48 DF,  p-value: 0.738
## 
## 
## Call:
## lm(formula = scale(y) ~ 1 + scale(x))
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -1.4616 -0.6541 -0.2069  0.3677  3.1780 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)
## (Intercept)  1.722e-17  1.427e-01   0.000    1.000
## scale(x)    -4.851e-02  1.442e-01  -0.337    0.738
## 
## Residual standard error: 1.009 on 48 degrees of freedom
## Multiple R-squared:  0.002354,   Adjusted R-squared:  -0.01843 
## F-statistic: 0.1132 on 1 and 48 DF,  p-value: 0.738

置信区间没有完全一致,但是非常相近。

3.2.2 R 代码:Spearman 相关系数

注意,我们可以把斜率解释为:对于每一 x 的秩的变化,所获得的相应 y 的秩的变化。我认为这个数字非常有趣。然而,截距更难解释,因为它定义在 rank(x)=0 的时候,然而这其实是不可能的,因为 x 是从 1 开始的。

查看相同的 r (即这里的 rho) 和 p

# Spearman correlation
a <- cor.test(y, x, method = "spearman") # Built-in
b <- lm(rank(y) ~ 1 + rank(x)) # Equivalent linear model

让我们看一下结果:

modelp.valuerhocor.test0.7072-0.0543lm0.708-0.0543
## 
##  Spearman's rank correlation rho
## 
## data:  y and x
## S = 21956, p-value = 0.7072
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
##         rho 
## -0.05430972 
## 
## 
## Call:
## lm(formula = rank(y) ~ 1 + rank(x))
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -23.8211 -12.0056  -0.0272  12.5215  25.6677 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 26.88490    4.22287   6.366 6.89e-08 ***
## rank(x)     -0.05431    0.14412  -0.377    0.708    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 14.71 on 48 degrees of freedom
## Multiple R-squared:  0.00295,    Adjusted R-squared:  -0.01782 
## F-statistic: 0.142 on 1 and 48 DF,  p-value: 0.708

4.1 单样本 t 检验和 Wilcoxon 符号秩检验

4.1.1 理论:作为线性模型

t 检验模型:单独一个数字来预测 y。

y=β0H0:β0=0

换句话说,这是我们所熟悉的 y=β0+β1∗x,只是最后一项消失了,因为 x 不存在了(等价于 x=0,见下方左图)。以上模型,一旦用 y 的 符号秩来替换了 y 本身(见下方右图),就和Wilcoxon 符号秩检验非常相近。

signed_rank(y)=β0

这个近似对于样本量大于 14 的情况已足够好,对于大于 50 的情况 接近完美


D_t1 <- data.frame(
  y = rnorm_fixed(, , ),
  x = runif(, , )
) 

P_t1 <- ggplot(D_t1, aes(y = y, x = )) +
  stat_summary(
    fun.y = mean, geom = ,
    aes(ymax = ..y.., ymin = ..y.., color = ), lwd = 
  ) +
  scale_color_manual(
    name = , values = c(),
    labels = c(bquote(beta[] * ))
  ) +
  geom_text(aes(label = round(y, )), nudge_x = , size = , color = ) +
  labs(title = )


D_t1_rank <- data.frame(y = signed_rank(D_t1$y))

P_t1_rank <- ggplot(D_t1_rank, aes(y = y, x = )) +
  stat_summary(
    fun.y = mean, geom = ,
    aes(ymax = ..y.., ymin = ..y.., color = ), lwd = 
  ) +
  scale_color_manual(
    name = , values = c(),
    labels = c(bquote(beta[] * ))
  ) +
  geom_text(aes(label = y), nudge_x = , size = , color = ) +
  labs(title = )


theme_axis(P_t1, ylim = c(-, ), legend.position = c(, )) +
theme_axis(P_t1_rank, ylim = , legend.position = c(, ))

unnamed-chunk-13-1.svg

4.1.2 R 代码:单样本 t 检验

尝试运行以下 R 代码,确认线性模型(lm)和内置的 t.test 产生相同的 t、p、r。lm 的输出没有置信区间,但是你可以用 confint(lm(...)) 来确认结果也是相同的:

# Built-in t-test
a <- t.test(y)

# Equivalent linear model: intercept-only
b <- lm(y ~ 1)
modelmeanp.valuetdfconf.lowconf.hight.test-0.09520.7095-0.374749-0.60590.4155lm-0.09520.7095-0.374749-0.60590.4155
## 
##  One Sample t-test
## 
## data:  y
## t = -0.37466, df = 49, p-value = 0.7095
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -0.6059252  0.4154934
## sample estimates:
##   mean of x 
## -0.09521589 
## 
## 
## Call:
## lm(formula = y ~ 1)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -2.6877 -1.1888 -0.3123  0.5868  5.5883 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept) -0.09522    0.25414  -0.375     0.71
## 
## Residual standard error: 1.797 on 49 degrees of freedom

4.1.3 R 代码:Wilcoxon 符号秩检验

除了一致的 p 值,lm 也提供了符号秩均值,我发现这个数字非常有信息量。

# Built-in
a <- wilcox.test(y)

# Equivalent linear model
b <- lm(signed_rank(y) ~ 1) # See? Same model as above, just on signed ranks

# Bonus: of course also works for one-sample t-test
c <- t.test(signed_rank(y))
modelp.valuemean_rankwilcox.test0.213lm0.2146-5.18t.test0.2146-5.18
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  y
## V = 508, p-value = 0.213
## alternative hypothesis: true location is not equal to 0
## 
## 
## Call:
## lm(formula = signed_rank(y) ~ 1)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -41.82 -22.57  -5.32  18.68  55.18 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)    -5.18       4.12  -1.257    0.215
## 
## Residual standard error: 29.13 on 49 degrees of freedom
## 
## 
##  One Sample t-test
## 
## data:  signed_rank(y)
## t = -1.2573, df = 49, p-value = 0.2146
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -13.459062   3.099062
## sample estimates:
## mean of x 
##     -5.18

4.2 配对样本 t 检验和 Wilcoxon 配对组检验

4.2.1 理论:作为线性模型

t 检验模型:一个数字(截距)来预测组间之差。

y2−y1=β0H0:β0=0

这意味着只有一个 y=y2−y1 需要预测,而且它变成了对于组间之差的 单样本 t 检验。因此可视化效果和单样本 t 检验是相同的。冒着过度复杂化简单作差的风险,你可以认为这些组间之差是斜率(见图的左半部分),我们也可以用 y 的差来表达(见图的右半部分):


N <- nrow(D_t1)
start <- rnorm_fixed(N, , )
D_tpaired <- data.frame(
  x = rep(c(, ), each = N),
  y = c(start, start + D_t1$y),
  id = :N
)


P_tpaired <- ggplot(D_tpaired, aes(x = x, y = y)) +
  geom_line(aes(group = id)) +
  labs(title = )


theme_axis(P_tpaired) +
theme_axis(P_t1, legend.position = c(, ))

unnamed-chunk-20-1.svg

类似地,Wilcoxon 配对组Wilcoxon 符号秩的唯一差别,就是它对配对的差 y−x 的符号秩进行检验。

signed_rank(y2−y1)=β0H0:β0=0

4.2.2 R 代码:配对样本 t 检验

a <- t.test(y, y2, paired = TRUE) # Built-in paired t-test
b <- lm(y - y2 ~ 1) # Equivalent linear model
modelmeanp.valuedftconf.lowconf.hight.test-0.59520.093449-1.7108-1.29440.104lm-0.59520.093449-1.7108-1.29440.104
## 
##  Paired t-test
## 
## data:  y and y2
## t = -1.7108, df = 49, p-value = 0.09345
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -1.2943926  0.1039608
## sample estimates:
## mean of the differences 
##              -0.5952159 
## 
## 
## Call:
## lm(formula = y - y2 ~ 1)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.9699 -1.4071 -0.0062  1.0771  7.2116 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)  
## (Intercept)  -0.5952     0.3479  -1.711   0.0934 .
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.46 on 49 degrees of freedom

4.2.3 R 代码:Wilcoxon 配对组检验

我们再一次运用符号秩转换技巧。这依然是近似值,但是非常接近:

# Built-in Wilcoxon matched pairs
a <- wilcox.test(y, y2, paired = TRUE)

# Equivalent linear model:
b <- lm(signed_rank(y - y2) ~ 1)

# Bonus: identical to one-sample t-test ong signed ranks
c <- t.test(signed_rank(y - y2))
modelp.valuemean_rank_diffwilcox.test0.0447lm0.0429-8.34t.test0.0429-8.34
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  y and y2
## V = 429, p-value = 0.04466
## alternative hypothesis: true location shift is not equal to 0
## 
## 
## Call:
## lm(formula = signed_rank(y - y2) ~ 1)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -40.66 -23.16  -4.66  20.84  58.34 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)  
## (Intercept)   -8.340      4.013  -2.078   0.0429 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 28.37 on 49 degrees of freedom
## 
## 
##  One Sample t-test
## 
## data:  signed_rank(y - y2)
## t = -2.0785, df = 49, p-value = 0.04293
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -16.4036084  -0.2763916
## sample estimates:
## mean of x 
##     -8.34

对于大样本量(N>>100),这计算方式某种程度上比较接近符号检验。但是本例子中这种近似效果较差。

5.1 独立 t 检验和 Mann-Whitney U 检验

5.1.1 理论:作为线性模型

独立 t 检验模型:两个均值来预测 y。

yi=β0+β1xiH0:β1=0

上式中,xi 是示性变量(0 或 1),用于示意数据点 i 是从一个组里采样还是另一个组里采样的。 示性变量 indicator variable 或哑变量 dummy variable 或者 one-hot 编码 存在于很多线性模型当中,我们很快就会看到它有什么用途。

Mann-Whitney U 检验(也被称为两个独立组的 Wilcoxon 秩和检验;这次没有符号秩了)是有着非常接近的近似的相同模型,除了它不是在原有值而是在 x 和 y 的秩上计算的:

rank(yi)=β0+β1xiH0:β1=0

对我来说,这种等价性使“非参”统计量更容易理解了。这种近似在每个组样本量大于 11 的时候比较合适,在每个组样本量大于 30 的时候看起来 相当完美.

5.1.2 理论:示性变量

示性变量可以用图像来帮助理解。这个变量在 x 轴,所以第一个组的数据点位于 x=0,第二个组的位于 x=1。然后 β0 是截距(蓝线),β1 是两个均值之间的斜率(红线)。为什么?因为当 Δx=1 的时候,斜率等于相差值:

slope=Δy/Δx=Δy/1=Δy=difference

奇迹啊!即使类别之间的差值也可以用线性模型来表达,这真的是一把瑞士军刀!


N <-  
D_t2 <- data.frame(
  x = rep(c(, ), each = N),
  y = c(rnorm_fixed(N, , ), rnorm_fixed(N, , ))
)


P_t2 <- ggplot(D_t2, aes(x = x, y = y)) +
  stat_summary(
    fun.y = mean, geom = ,
    aes(ymax = ..y.., ymin = ..y.., color = ), lwd = 
  ) +
  geom_segment(x = -, xend = , y = , yend = , lwd = , aes(color = )) +
  geom_segment(x = , xend = , y = , yend = , lwd = , aes(color = )) +
  scale_color_manual(
    name = , values = c(, , ),
    labels = c(
      bquote(beta[] * ),
      bquote(beta[] * ),
      bquote(beta[] + beta[] %.%  * )
    )
  )


theme_axis(P_t2, jitter = , xlim = c(-, ), legend.position = c(, ))

unnamed-chunk-27-1.svg

5.1.3 理论:示性变量(后续)

如果你觉得你理解了示性变量了,可以直接跳到下一章节。这里是对示性变量更为详细的解释:

如果数据点采样自第一个组,即 xi=0,模型就会变成 y=β0+β1⋅0=β0。换句话说,模型预测的值是 beta0。这些数据点的均值 β 是最好的预测,而 β0 是第 1 组的均值。

另一方面,采样自第二个组的数据点有 xi=1,所以模型变成了 yi=β0+β1⋅1=β0+β1。换句话说,我们加上了 β1,从第一组的均值移动到了第二组的均值。所以 β1 成为了两个组的均值之差

举个例子,假设第 1 组人是 25 岁(β0=25),第 2 组人 28 岁(β1=3),那么对于第 1 组的人的模型是 y=25+3⋅0=25,第 2 组的人的模型是 y=25+3⋅1=28。

呼,搞定!对于初学者,理解示性变量需要一些时间,但是只需要懂得加法和乘法就能上手了!

5.1.4 R 代码:独立 t 检验

提醒一下,当我们在 R 里写 y ~ 1 + x,它是 y=β0⋅1+β1⋅x 的简写,R 会为你计算 β 值。因此,y ~ 1 + x 是 R 里面表达 y=a⋅x+b 的形式。

注意相等的 tdfp和估计值。我们可以用 confint(lm(...)) 获得置信区间。

# Built-in independent t-test on wide data
a <- t.test(y, y2, var.equal = TRUE)

# Be explicit about the underlying linear model by hand-dummy-coding:
group_y2 <- ifelse(group == "y2", 1, 0) # 1 if group == y2, 0 otherwise
b <- lm(value ~ 1 + group_y2) # Using our hand-made dummy regressor

# Note: We could also do the dummy-coding in the model
# specification itself. Same result.
c <- lm(value ~ 1 + I(group == "y2"))
modelmean_ydifferencep.valuedfconf.lowconf.hight.test-0.09520.59520.075398-0.06171.2521lm-0.09520.59520.075398-0.06171.2521
## 
##  Two Sample t-test
## 
## data:  y and y2
## t = -1.798, df = 98, p-value = 0.07525
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -1.25214980  0.06171803
## sample estimates:
##   mean of x   mean of y 
## -0.09521589  0.50000000 
## 
## 
## Call:
## lm(formula = value ~ 1 + group_y2)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -2.6877 -1.0311 -0.2435  0.6106  5.5883 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)  
## (Intercept) -0.09522    0.23408  -0.407   0.6851  
## group_y2     0.59522    0.33104   1.798   0.0753 .
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1.655 on 98 degrees of freedom
## Multiple R-squared:  0.03194,    Adjusted R-squared:  0.02206 
## F-statistic: 3.233 on 1 and 98 DF,  p-value: 0.07525
## 
## 
## Call:
## lm(formula = value ~ 1 + I(group == "y2"))
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -2.6877 -1.0311 -0.2435  0.6106  5.5883 
## 
## Coefficients:
##                      Estimate Std. Error t value Pr(>|t|)  
## (Intercept)          -0.09522    0.23408  -0.407   0.6851  
## I(group == "y2")TRUE  0.59522    0.33104   1.798   0.0753 .
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1.655 on 98 degrees of freedom
## Multiple R-squared:  0.03194,    Adjusted R-squared:  0.02206 
## F-statistic: 3.233 on 1 and 98 DF,  p-value: 0.07525

5.1.5 R 代码:Mann-Whitney U 检验

# Wilcoxon / Mann-Whitney U
a <- wilcox.test(y, y2)

# As linear model with our dummy-coded group_y2:
b <- lm(rank(value) ~ 1 + group_y2) # compare to linear model above
modelp.valuerank_diffwilcox.test0.0248lm0.023813.04
## 
##  Wilcoxon rank sum test with continuity correction
## 
## data:  y and y2
## W = 924, p-value = 0.02484
## alternative hypothesis: true location shift is not equal to 0
## 
## 
## Call:
## lm(formula = rank(value) ~ 1 + group_y2)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -49.02 -22.26  -1.50  23.27  56.02 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   43.980      4.017  10.948   <2e-16 ***
## group_y2      13.040      5.681   2.295   0.0238 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 28.41 on 98 degrees of freedom
## Multiple R-squared:  0.05102,    Adjusted R-squared:  0.04133 
## F-statistic: 5.269 on 1 and 98 DF,  p-value: 0.02385

5.2 Welch t 检验

这等价于以上(学生)独立 t 检验,除了学生 t 检验假设同方差,而 Welch t 检验 没有这个假设。所以线性模型是相同的,区别在于,我们对每一个组指定一个方差。我们可用 nlme 包(查阅细节):

# Built-in
a <- t.test(y, y2, var.equal = FALSE)

# As linear model with per-group variances
b <- nlme::gls(value ~ 1 + group_y2, method = "ML", 
               weights = nlme::varIdent(form = ~ 1 | group))
modelmean_ymean_diffp.valuetconf.lowconf.hight.test-0.09520.59520.0753-1.798-0.0621.2524gls-0.09520.59520.0753-1.798-0.05361.244
## 
##  Welch Two Sample t-test
## 
## data:  y and y2
## t = -1.798, df = 94.966, p-value = 0.07535
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -1.25241218  0.06198041
## sample estimates:
##   mean of x   mean of y 
## -0.09521589  0.50000000 
## 
## Generalized least squares fit by maximum likelihood
##   Model: value ~ 1 + group_y2 
##   Data: NULL 
##        AIC     BIC    logLik
##   388.9273 399.348 -190.4636
## 
## Variance function:
##  Structure: Different standard deviations per stratum
##  Formula: ~1 | group 
##  Parameter estimates:
##        y1        y2 
## 1.0000000 0.8347122 
## 
## Coefficients:
##                  Value Std.Error    t-value p-value
## (Intercept) -0.0952159 0.2541379 -0.3746623  0.7087
## group_y2     0.5952159 0.3310379  1.7980295  0.0753
## 
##  Correlation: 
##          (Intr)
## group_y2 -0.768
## 
## Standardized residuals:
##        Min         Q1        Med         Q3        Max 
## -1.5789902 -0.6351823 -0.1639999  0.3735898  3.1413235 
## 
## Residual standard error: 1.778965 
## Degrees of freedom: 100 total; 98 residual

6 三个或多个均值

方差分析 ANOVA 是只有类别型自变量的线性模型,它们可以简单地扩展上述模型,并重度依赖示性变量。如果你还没准备好,一定要去阅读示性变量一节

6.1 单因素方差分析和 Kruskal-Wallis 检验

6.1.1 理论:作为线性模型

模型:每组一个均值来预测 y。

y=β0+β1x1+β2x2+β3x3+...H0:y=β0

其中 xi 是示性变量(x=0 或 x=1),且最多只有一个 xi=1 且其余 xi=0。

注意这和我们已做的其它模型“有很大的相同之处”。如果只有两个组,这个模型就是 y=β0+β1∗x,即 独立 t 检验。如果只有一个组,这就是 y=β0,即 单样本 t 检验。从图中很容易看出来 —— 只要遮盖掉一些组然后看看图像是否对上了其它可视化结果。


N <- 
D_anova1 <- data.frame(
  y = c(
    rnorm_fixed(N, , ),
    rnorm_fixed(N, , ),
    rnorm_fixed(N, , ),
    rnorm_fixed(N, , )
  ),
  x = rep(:, each = )
)
ymeans <- aggregate(y ~ x, D_anova1, mean)$y
P_anova1 <- ggplot(D_anova1, aes(x = x, y = y)) +
  stat_summary(
    fun.y = mean, geom = ,
    aes(ymax = ..y.., ymin = ..y.., color = ), lwd = 
  ) +
  geom_segment(x = -, xend = , y = , yend = , lwd = , aes(color = )) +
  geom_segment(x = , xend = , y = ymeans[], yend = ymeans[], lwd = , aes(color = )) +
  geom_segment(x = , xend = , y = ymeans[], yend = ymeans[], lwd = , aes(color = )) +
  geom_segment(x = , xend = , y = ymeans[], yend = ymeans[], lwd = , aes(color = )) +
  scale_color_manual(
    name = , values = c(, , ),
    labels = c(
      bquote(beta[] * ),
      bquote(beta[] *  * beta[] *  * beta[] * ),
      bquote(beta[] *  * beta[] *  * beta[] *  * beta[] * )
    )
  )

theme_axis(P_anova1, xlim = c(-, ), legend.position = c(, ))

unnamed-chunk-37-1.svg

单因素方差分析有一个对数线性版本,称为拟合优度检验,我们稍后会讲到。顺便一说,因为我们现在对多个 x 进行回归,因此单因素方差分析对应的是 多元回归 模型。

Kruskal-Wallis 检验是 y(value)秩转换的 单因素方差分析

rank(y)=β0+β1x1+β2x2+β3x3+…

这个近似在数据点达到 12 或更多的时候已经 足够好。同样地,对一个或两个组做这个检验,也已经有对应等式,分别为 Wilcoxon 符号秩检验Mann-Whitney U 检验

6.1.2 示例数据

首先创建可能取值为 abc 的类别变量2,那么 单因素方差分析基本上成为了三样本 t 检验,然后手动对每个组创建示性变量

# Three variables in "long" format
N <- 20 # Number of samples per group
D <- data.frame(
  value = c(rnorm_fixed(N, 0), rnorm_fixed(N, 1), rnorm_fixed(N, 0.5)),
  group = rep(c("a", "b", "c"), each = N),

  # Explicitly add indicator/dummy variables
  # Could also be done using model.matrix(~D$group)
  # group_a = rep(c(1, 0, 0), each=N),  # This is the intercept. No need to code
  group_b = rep(c(0, 1, 0), each = N),
  group_c = rep(c(0, 0, 1), each = N)
) # N of each level
valuegroupgroup_bgroup_c-0.326a000.1685a000.8539a001.4679a00-0.4386a00-0.5875a000.6481a00-0.2615a002.32a000.9258a00

伴随着组别 a 的截距全都展示了出来,我们看到每一行有且仅有另一个组 b 或组 c 的参数添加进去,用于预测 value(滑动到表格最后)。因此组 b 的数据点永远不会影响到组 c 的估计值。

6.1.3 R 代码:单因素方差分析

好的,接下来我们看看一个专用的方差分析函数(car::Anova)和手动创建示性变量的 lm 线性模型结果是否一致:

# Compare built-in and linear model
a <- car::Anova(aov(value ~ group, D)) # Dedicated ANOVA function
b <- lm(value ~ 1 + group_b + group_c, data = D) # As in-your-face linear model
modeldfdf.residualFp.valueAnova25750.00998lm25750.00998
## Anova Table (Type II tests)
## 
## Response: value
##           Sum Sq Df F value   Pr(>F)   
## group         10  2       5 0.009984 **
## Residuals     57 57                    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Call:
## lm(formula = value ~ 1 + group_b + group_c, data = D)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.18113 -0.67974  0.05351  0.71444  2.32002 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)   
## (Intercept) 2.867e-16  2.236e-01   0.000  1.00000   
## group_b     1.000e+00  3.162e-01   3.162  0.00251 **
## group_c     5.000e-01  3.162e-01   1.581  0.11938   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1 on 57 degrees of freedom
## Multiple R-squared:  0.1493, Adjusted R-squared:  0.1194 
## F-statistic:     5 on 2 and 57 DF,  p-value: 0.009984

实际上,car::Anovaaov 就是 lm 包装而来的,所以得到相同的结果一点也不令人感到意外。线性模型的示性变量公式是缩写语法 y ~ factor 背后的模型。实际上,使用 aovcar::Anova 而不使用 lm 是为了得到一个漂亮的格式化的方差分析表。

lm 的默认输出包含了参数估计的结果(额外收获!),可以将上述 R 代码展开来看。因为它就是方差分析模型,所以你也可以用 coefficients(aov(...)) 得到参数估计的结果。

注意,我没有使用 aov 函数,是因为它计算了第一类平方和,这种计算方式不提倡。围绕着使用第二类平方和(car::Anova 默认)还是第三类平方和(使用 car::Anova(..., type=3))有着很多争论,我们这里略过不提。

6.1.4 R 代码:Kruskal-Wallis 检验

a <- kruskal.test(value ~ group, D) # Built-in
b <- lm(rank(value) ~ 1 + group_b + group_c, D) # As linear model
# The same model, using a dedicated ANOVA function. It just wraps lm.
c <- car::Anova(aov(rank(value) ~ group, D)) 
modeldfp.valuekruskal.test20.0158lm20.0133
## 
##  Kruskal-Wallis rank sum test
## 
## data:  value by group
## Kruskal-Wallis chi-squared = 8.2928, df = 2, p-value = 0.01582
## 
## 
## Call:
## lm(formula = rank(value) ~ 1 + group_b + group_c, data = D)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -31.35 -13.14   1.60  13.64  35.55 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   22.450      3.683   6.095    1e-07 ***
## group_b       15.900      5.209   3.052  0.00344 ** 
## group_c        8.250      5.209   1.584  0.11877    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 16.47 on 57 degrees of freedom
## Multiple R-squared:  0.1406, Adjusted R-squared:  0.1104 
## F-statistic: 4.661 on 2 and 57 DF,  p-value: 0.01334
## 
## Anova Table (Type II tests)
## 
## Response: rank(value)
##            Sum Sq Df F value  Pr(>F)  
## group      2529.3  2   4.661 0.01334 *
## Residuals 15465.7 57                  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

6.2 双因素方差分析(待绘图)

6.2.1 理论:作为线性模型

模型:每组一个均值(主效应)加上这些均值乘以各个因子(交互效应)。

在一个更大的模型框架里,主效应实际上就是上述 单因素方差分析模型。虽然交互效应只是一些数字乘以另外一些识数字,但是它更难解释。我会把这些解释内容留给课堂上的老师们,而聚焦在等价表达之上。 :-)

使用矩阵记号:

y=β0+β1X1+β2X2+β3X1X2H0:β3=0

这里 βi 是 β 的分量,其中之后一个会被示性向量 Xi 所选取。这里出现的H0 是交互效应。注意,截距是 β0 是所有因子中第一个水平的均值,而其它所有的 β 都是相对于 β0 的值。

继续探究上文单因素方差分析的数据集,我们加上交互因子 mood(情绪),这样就能够测试 group:mood 的交互效应(3×2 的 ANOVA)。同样,为了使用线性模型 lm,将这个因子转为示性变量

# Crossing factor
D$mood <- c("happy", "sad")
# Dummy coding
D$mood_happy <- ifelse(D$mood == "happy", 1, 0) # 1 if mood==happy. 0 otherwise.
# D$mood_sad = ifelse(D$mood == 'sad', 1, 0)  # 同上,但是我们不需要同时设置
valuegroupgroup_bgroup_cmoodmood_happy-0.326a00happy10.1685a00sad00.8539a00happy11.4679a00sad0-0.4386a00happy1-0.5875a00sad00.6481a00happy1-0.2615a00sad02.32a00happy10.9258a00sad0

β0 成为了 a 组的开心者!




means <- lm(value ~ mood * group, D)$coefficients
P_anova2 <- ggplot(D, aes(x = group, y = value, color = mood)) +
  geom_segment(x = -, xend = , y = means[], yend = , col = , lwd = ) +
  stat_summary(fun.y = mean, geom = , aes(ymax = ..y.., ymin = ..y..), lwd = )
theme_axis(P_anova2, xlim = c(-, )) + theme(axis.text.x = element_text())

unnamed-chunk-48-1.svg

6.2.2 R 代码:双因素方差分析

现在转向 R 里的真实建模。对比专用的 ANOVA 函数(car::Anova;原因参见单因素方差分析一节),以及线性模型函数(lm)。注意,在单因素方差分析里,一次性检验全部因子的交互效应,这其中涉及到多个参数(这个例子里有两个参数)。所以我们不能查看总体模型估计结果或者任意一个参数结果。因此,使用似然比检验(likelihood-ratio test)来比较带交互效应的双因素方差分析模型和没有交互效应的模型。anova 函数就是用来做这个检验的。这看起来在作弊,实际上,它只是在已经拟合了的模型上计算似然(likelihood)、p 值等等!

# Dedicated two-way ANOVA functions
a <- car::Anova(aov(value ~ mood * group, D), type = "II") # Normal notation. "*" both multiplies and adds main effects
b <- car::Anova(aov(value ~ mood + group + mood:group, D)) # Identical but more verbose about main effects and interaction

# Testing the interaction terms as linear model.
full <- lm(value ~ 1 + group_b + group_c + mood_happy + group_b:mood_happy + group_c:mood_happy, D) # Full model
null <- lm(value ~ 1 + group_b + group_c + mood_happy, D) # Without interaction
c <- anova(null, full) # whoop whoop, same F, p, and Dfs
modelFdfp.valuesumsqres.sumsqAnova mood:group1.853420.16653.459150.3926lm LRT1.853420.16653.459150.3926
## Anova Table (Type II tests)
## 
## Response: value
##            Sum Sq Df F value   Pr(>F)   
## mood        3.148  1  3.3737 0.071751 . 
## group      10.000  2  5.3579 0.007539 **
## mood:group  3.459  2  1.8534 0.166541   
## Residuals  50.393 54                    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Analysis of Variance Table
## 
## Model 1: value ~ 1 + group_b + group_c + mood_happy
## Model 2: value ~ 1 + group_b + group_c + mood_happy + group_b:mood_happy + 
##     group_c:mood_happy
##   Res.Df    RSS Df Sum of Sq      F Pr(>F)
## 1     56 53.852                           
## 2     54 50.393  2    3.4591 1.8534 0.1665

下面展示了近似的主因素模型。方差分析主效应的精确计算需要 更加繁琐的计算步骤,并且依赖于使用第二型还是第三型平方和来进行推断。

在模型的汇总统计量里可以找到对比以上 Anova 拟合的主因素效应的数值。

# Main effect of group.
e <- lm(value ~ 1 + group_b + group_c, D)

# Main effect of mood.
f <- lm(value ~ 1 + mood_happy, D)
termmodeldfFp.valuegroupAnova25.357930.00754grouplm250.00998moodAnova13.373710.07175moodlm12.85980.09619
## 
## Call:
## lm(formula = value ~ 1 + group_b + group_c, data = D)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.18113 -0.67974  0.05351  0.71444  2.32002 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)   
## (Intercept) 2.867e-16  2.236e-01   0.000  1.00000   
## group_b     1.000e+00  3.162e-01   3.162  0.00251 **
## group_c     5.000e-01  3.162e-01   1.581  0.11938   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1 on 57 degrees of freedom
## Multiple R-squared:  0.1493, Adjusted R-squared:  0.1194 
## F-statistic:     5 on 2 and 57 DF,  p-value: 0.009984
## 
## 
## Call:
## lm(formula = value ~ 1 + mood_happy, data = D)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.38495 -0.67592  0.07761  0.64865  2.04909 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   0.7291     0.1916   3.806 0.000343 ***
## mood_happy   -0.4581     0.2709  -1.691 0.096186 .  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1.049 on 58 degrees of freedom
## Multiple R-squared:  0.04699,    Adjusted R-squared:  0.03056 
## F-statistic:  2.86 on 1 and 58 DF,  p-value: 0.09619

6.3 协方差分析

协方差分析 ANCOVA 是在方差分析的基础上添加连续型回归变量,从而模型里包含了连续型以及(示性变量转化来的)类别型变量。沿用上文单因素方差分析的例子,加上 age,就变成单因素协方差分析(one-way ANCOVA)

y=β0+β1x1+β2x2+…+β3age

其中,xi 是熟悉的示性变量。β0 是第一个组在 age=0 时候的均值。可以用这个方法把所有的方差分析转化成为协方差分析,比如说,在上一节的双因素方差分析加上 βN⋅age。我们先继续探究单因素协方差分析,从添加 age 到模型里开始:

# Update data with a continuous covariate
D$age <- D$value + rnorm_fixed(nrow(D), sd = 3) # Correlated to value

比起使用位于 x 轴的位置,最好使用颜色来区分各组数据。β 依然是数据的平均 y 移动量,唯一的不同是现在用斜率而不是截距来对每一组进行建模。换句话说,单因素方差分析实际上是对于每一组(y=β0)的单样本 t 检验,而单因素协方差分析实际上是每一组(yi=β0+βi+β1⋅age)的Pearson 相关性检验


D$pred <- predict(lm(value ~ age + group, D))


P_ancova <- ggplot(D, aes(x = age, y = value, color = group, shape = group)) +
  geom_line(aes(y = pred), lwd = )


theme_axis(P_ancova, xlim = , ylim = , legend.position = c(, )) + 
  theme(axis.title = element_text())

unnamed-chunk-56-1.svg

这里是使用线性模型来做单因素方差分析的 R 代码:

# Dedicated ANCOVA functions. The order of factors matter in pure-aov (type-I variance).
# Use type-II (default for car::Anova) or type-III (set type=3),
a <- car::Anova(aov(value ~ group + age, D))
# a = aov(value ~ group + age, D)  # Predictor order matters. Not nice!

# As dummy-coded linear model.
full <- lm(value ~ 1 + group_b + group_c + age, D)

# Testing main effect of age using Likelihood-ratio test
null_age <- lm(value ~ 1 + group_b + group_c, D) # Full without age. One-way ANOVA!
result_age <- anova(null_age, full)

# Testing main effect of groupusing Likelihood-ratio test
null_group <- lm(value ~ 1 + age, D) # Full without group. Pearson correlation!
result_group <- anova(null_group, full)
termmodelFdfp.valuesumsqres.sumsqres.dfageAnova8.99510.0047.888649.111456agelm8.99510.0047.888649.111456groupAnova3.318620.04345.820749.111456grouplm3.318620.04345.820749.111456
## Anova Table (Type II tests)
## 
## Response: value
##           Sum Sq Df F value   Pr(>F)   
## group      5.821  2  3.3186 0.043448 * 
## age        7.889  1  8.9950 0.004034 **
## Residuals 49.111 56                    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Analysis of Variance Table
## 
## Model 1: value ~ 1 + group_b + group_c
## Model 2: value ~ 1 + group_b + group_c + age
##   Res.Df    RSS Df Sum of Sq     F   Pr(>F)   
## 1     57 57.000                               
## 2     56 49.111  1    7.8886 8.995 0.004034 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Analysis of Variance Table
## 
## Model 1: value ~ 1 + age
## Model 2: value ~ 1 + group_b + group_c + age
##   Res.Df    RSS Df Sum of Sq      F  Pr(>F)  
## 1     58 54.932                              
## 2     56 49.111  2    5.8207 3.3186 0.04345 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

7 比率:卡方检验是对数线性模型

回想一下,使用对数转换可以简单地处理比率(proportion),举例来说,x 每一个单位的增加,都会带来 y 的一定数量的百分比的增加。借助这个特点,可以最简单有效地理解计数数据和列联表。查阅此简介文章看看如何使用线性模型来理解卡方检验。

7.1 拟合优度检验

7.1.1 理论:作为对数线性模型

模型:一个单独截距来预测 log(y)。

我提议你参考阅读列联表一节,基本上它就是双因素拟合优度检验

7.1.2 示例数据

本例子中,需要一些宽格式的计数数据:

# Data in long format
D <- data.frame(
  mood = c("happy", "sad", "meh"),
  counts = c(60, 90, 70)
)
# Dummy coding for the linear model
D$mood_happy <- ifelse(D$mood == "happy", 1, 0)
D$mood_sad <- ifelse(D$mood == "sad", 1, 0)
moodcountsmood_happymood_sadhappy6010sad9001meh7000

7.1.3 R 代码:拟合优度检验

现在,让我们展示一下,拟合优度检验其实是单因素方差分析的对数线性变换版本。设置 family = poisson() ,它默认使用 log 作为联系函数(link function)family = poisson(link='log'))。

# Built-in test
a <- chisq.test(D$counts)

# As log-linear model, comparing to an intercept-only model
full <- glm(counts ~ 1 + mood_happy + mood_sad, data = D, family = poisson())
null <- glm(counts ~ 1, data = D, family = poisson())
b <- anova(null, full, test = "Rao")

# Note: glm can also do the dummy coding for you:
c <- glm(counts ~ mood, data = D, family = poisson())

来看看结果:

modelChisqdfp.valuechisq.test6.363620.0415glm LRT6.363620.0415
## 
##  Chi-squared test for given probabilities
## 
## data:  D$counts
## X-squared = 6.3636, df = 2, p-value = 0.04151
## 
## Analysis of Deviance Table
## 
## Model 1: counts ~ 1
## Model 2: counts ~ 1 + mood_happy + mood_sad
##   Resid. Df Resid. Dev Df Deviance    Rao Pr(>Chi)  
## 1         2     6.2697                              
## 2         0     0.0000  2   6.2697 6.3636  0.04151 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

注意,其中 anova(..., test = 'Rao') 表示用 Rao 得分 检验,又称为拉格朗日乘子检验(Lagrange Multiplier test,LM test)来计算 p 值。当然也可以使用 test='Chisq'test='LRT',它们计算近似的 p 值。你可能会认为我们在这里作弊了,偷偷地对卡方模型进行后续处理,实际上,anova 仅仅指定了 p 值的计算方式,内部对数线性模型仍然发生在 glm 中。

顺带一说,如果只有两个计数变量,而且样本量较大(N>100),模型会有效地近似于二项检验(binomial test) binom.test。这个样本量比通常情况要更大,所以我认为这不是经验准则,也不会在此进一步探索。

7.2 列联表

7.2.1 理论:作为对数线性模型

这里的理论会变得更令人费解,我会简单地写一下,从而你可以感受到它其实就是对数线性双因素方差分析模型。来,开始探索……

对于双因素列联表,计数变量 y 的模型使用了列联表的边缘比率来建模。为什么这是可行的呢?答案比较高深,我们不会在这里详解,但读者可以通过查阅 Christoph Scheepers 的相关幻灯片来获得精彩的解答。这个模型包含了很多计数变量和回归系数 Ai 和 Bi:

yi=N⋅xi(Ai/N)⋅zj(Bj/N)⋅xij/((Aixi)/(Bjzj)/N)

多复杂呀!!!这里,i 是行标号,j 列标号,xsomething 是相应行和或列和的值:N=∑y。请记得,y 是计数变量,所以 N 是总计数值。

我们可以通过定义比率 来简化以上记号:αi=xi(Ai/N),βi=xj(Bi/N),αiβj=xij/(Aixi)/(Bjzj)/N。重写模型如下:

yi=N⋅αi⋅βj⋅αiβj

嗯,好多了。然而,这里依然有很多乘法项,使得我们很难从直观上理解变量之间是如何交互的。如果还记得 log(A⋅B)=log(A)+log(B),那么两边取对数就清晰易懂了,可得:

log(yi)=log(N)+log(αi)+log(βj)+log(αiβj)

太爽了!现在我们可以直观地理解回归系数(都是比率)是怎样独立地影响到 y 的。这就是为什么对数变换对比率数据如此有效。注意到,这其实就是双因素方差分析模型加上一些对数变换,这就回到了所熟悉的线性模型———只是对系数的解释发生了变化而已!此外,我们不能继续使用 R 里的 lm 函数了。

7.2.2 示例数据

我们需要一些“长”格式的数据,并且需要保存为表格格式,才能作为 chisq.test 的输入:

# Contingency data in long format for linear model
D <- data.frame(
  mood = c("happy", "happy", "meh", "meh", "sad", "sad"),
  sex = c("male", "female", "male", "female", "male", "female"),
  Freq = c(100, 70, 30, 32, 110, 120)
)

# ... and as table for chisq.test
D_table <- D %>%
  tidyr::spread(key = mood, value = Freq) %>% # Mood to columns
  select(-sex) %>% # Remove sex column
  as.matrix()

# Dummy coding of D for linear model (skipping mood=="sad" and gender=="female")
# We could also use model.matrix(D$Freq~D$mood*D$sex)
D$mood_happy <- ifelse(D$mood == "happy", 1, 0)
D$mood_meh <- ifelse(D$mood == "meh", 1, 0)
D$sex_male <- ifelse(D$sex == "male", 1, 0)
moodsexFreqmood_happymood_mehsex_malehappymale100101happyfemale70100mehmale30011mehfemale32010sadmale110001sadfemale120000

7.2.3 R 代码:卡方检验

接下来看看卡方检验和对数线性模型之间的等价性。这个过程和上述双因素方差分析过程非常相似:

# Built-in chi-square. It requires matrix format.
a <- chisq.test(D_table)

# Using glm to do a log-linear model, we get identical results when testing the interaction term:
full <- glm(Freq ~ 1 + mood_happy + mood_meh + sex_male + 
              mood_happy * sex_male + mood_meh * sex_male, data = D, family = poisson())
null <- glm(Freq ~ 1 + mood_happy + mood_meh + sex_male, data = D, family = poisson())
b <- anova(null, full, test = "Rao") # Could also use test='LRT' or test='Chisq'

# Note: let glm do the dummy coding for you
full <- glm(Freq ~ mood * sex, family = poisson(), data = D)
c <- anova(full, test = "Rao")

# Note: even simpler syntax using MASS:loglm ("log-linear model")
d <- MASS::loglm(Freq ~ mood + sex, D)
modelChisqdfp.valuechisq.test5.099920.0781glm5.099920.0781loglm5.099920.0781
## 
##  Pearson's Chi-squared test
## 
## data:  D_table
## X-squared = 5.0999, df = 2, p-value = 0.07809
## 
## Analysis of Deviance Table
## 
## Model 1: Freq ~ 1 + mood_happy + mood_meh + sex_male
## Model 2: Freq ~ 1 + mood_happy + mood_meh + sex_male + mood_happy * sex_male + 
##     mood_meh * sex_male
##   Resid. Df Resid. Dev Df Deviance    Rao Pr(>Chi)  
## 1         2     5.1199                              
## 2         0     0.0000  2   5.1199 5.0999  0.07809 .
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Analysis of Deviance Table
## 
## Model: poisson, link: log
## 
## Response: Freq
## 
## Terms added sequentially (first to last)
## 
## 
##          Df Deviance Resid. Df Resid. Dev    Rao Pr(>Chi)    
## NULL                         5    111.130                    
## mood      2  105.308         3      5.821 94.132  < 2e-16 ***
## sex       1    0.701         2      5.120  0.701  0.40235    
## mood:sex  2    5.120         0      0.000  5.100  0.07809 .  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Call:
## MASS::loglm(formula = Freq ~ mood + sex, data = D)
## 
## Statistics:
##                       X^2 df   P(> X^2)
## Likelihood Ratio 5.119915  2 0.07730804
## Pearson          5.099859  2 0.07808717
## 
## Call:
## glm(formula = Freq ~ mood * sex, family = poisson(), data = D)
## 
## Deviance Residuals: 
## [1]  0  0  0  0  0  0
## 
## Coefficients:
##                 Estimate Std. Error z value Pr(>|z|)    
## (Intercept)       4.2485     0.1195  35.545  < 2e-16 ***
## moodmeh          -0.7828     0.2134  -3.668 0.000244 ***
## moodsad           0.5390     0.1504   3.584 0.000339 ***
## sexmale           0.3567     0.1558   2.289 0.022094 *  
## moodmeh:sexmale  -0.4212     0.2981  -1.413 0.157670    
## moodsad:sexmale  -0.4437     0.2042  -2.172 0.029819 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## (Dispersion parameter for poisson family taken to be 1)
## 
##     Null deviance: 1.1113e+02  on 5  degrees of freedom
## Residual deviance: 3.9968e-15  on 0  degrees of freedom
## AIC: 48.254
## 
## Number of Fisher Scoring iterations: 3

代码里用了 summary(full),你可以取消以上代码的折叠,查看回归模型拟合的系数的原始值。作为对数线性模型,这些系数表示了:如果跳转到一个类别的话,y 将会获得多少比例上的提升

8 资料来源和更多的等价性模型

下面是本文内容的部分资料来源,还包含了很多本文没有提到的等价性模型:

  • Cross Validated 网站上,我的原始想法
  • 对于“非参”检验,我之前提出的疑问 和有用的答案。
  • StackOverflow 网站上,关于 t 检验和方差分析的问题和回答
  • Christoph Scheepers 的幻灯片,介绍了卡方检验如何被理解为对数线性模型。
  • Philip M. Alday 的笔记,里面包括了卡方、二项、多项、泊松分布作为对数线性模型和 logistic 模型的理解。文中介绍的“等价性”没有我在本文展示的那么精确,因此我没有在本文详细介绍。然而,它们对理解这些检验是有帮助的!
  • Kristoffer Magnusson 的文章使用 lme4::lmer 混合模型(mixed model)介绍了 RM-ANOVA 和增长模型(growth model)。
  • Thom Baguley 的文章介绍了 Friedman 检验。这篇文章实际上启发了我开始思考“非参”检验的线性模型等价形式,而且最终推动我写下了本文章。

9 教材和课程大纲

大部分高等统计书籍(和一些入门书籍)也都同意“所有模型都是 GLMM(广义线性混合效应模型) 的观点”。然而,线性模型部分通常都是概念上提了一下,而没有清晰地指出细节。我想通过简练的方式把线性模型当作工具。幸运地,大部分对初学者友好的教材后来都合并了:

我说一下对我所做的事情的看法。我已使用了本文的一部分进行教学,并获得了巨大的成功,但是这并不是完整的教学过程,因为我并没有分派到教授整个课程。

我会花费 50% 的时间在数据的线性模型上,因为它包含了学生所需知道的 70%(以下的第 1 点)。剩下来的课程则是关于当你有一个组、两个组等等数据的时候会发生什么事情。

注意,主流统计课程的开始部分都是关于采样和假设检验的理解;我这里把这部分移动到后面,这样,学生可以基于之前学习的知识来进行理解,而不是一上来就面对各种陌生的概念。

  1. 回归的基础知识

    1. 回想高中的知识:y=a⋅x+b,然后获得对斜率和截距的非常好的直觉。理解到这条式子能用所有的变量名称来重写:如 money = profit * time + starting_money,或 y=β1x+β2∗1,或去除系数之后可写成 y ~ x + 1。如果听众接受程度高的话,可以探索这些模型是如何解微分方程的,并指出 y 是如何随着 x 的变化而变化的。

    2. 扩展到多元回归模型。记得这时候要带有非常多的生活例子和练习,从而使这些概念变得直觉上非常容易理解。让听众感叹于这些简洁的模型都可以用来描述非常大的数据集。

    3. 介绍对于非数值型数据如何进行秩转换,并进行各种尝试。

    4. 教授三种前提假设:数据点的独立性,残差分布的正态性和方差齐性(homoscedasticity)。

    5. 参数的置信(confidence)/可信(credible)区间。指出极大似然估计(Maximum-Likelihood estimate)很难计算,因此区间估计更为重要。

    6. 对以上简单的回归模型,简要地介绍 R2。顺便提及一下,这就是 Pearson 和 Spearman 相关系数

  2. 特殊情况 #1:一个或两个均值(t 检验、Wilcoxon 检验、Mann-Whitney 检验):

    1. 单均值:当只有一个 x 值的时候,回归模型简化成了 y=b。如果 y 不是数值型的,你可以进行秩转换。应用模型假设(只有一个 x,因此方差齐性不适用于这里)。顺便提及一下,这些仅有截距的模型也分别可称为单样本 t 检验和 Wilcoxon 符号秩检验

    2. 双均值:如果我们把两个变量一起放在 x 轴,两者均值之差就是斜率。很好!这就能用我们称为瑞士军刀的线性模型来解决。应用模型的假设条件,检查两个组的方差是否相等,相等即方差齐性。这模型称为独立 t 检验。构造一些例子,做一些练习,也许还能加上 Welch 检验,再加上秩转换 —- 变成所谓的 Mann-Whitney U 检验的版本。

    3. 配对样本:违反了独立性假设。通过计算配对组的差值,这就转化成了 2.1(单截距)的等价形式,尽管这种情况有另外的名称:配对 t 检验和 Wilcoxon 配对组检验

  3. 特殊情况 #2:三个或多个均值(方差分析(ANOVA))

    1. 对类别转化后的示性变量类别的每一个取值范围对应的回归系数,是如何通过乘以一个二元(binary)示性变量,来对每个取值范围对应的截距来进行建模的。(How one regression coefficient for each level of a factor models an intercept for each level when multiplied by a binary indicator.)这只是我们为了使数据能用线性模型建模,而扩展了在 2.1 所做的事情而已。

    2. 一个变量的均值:单因素方差分析(one-way ANOVA).

    3. 两个变量的均值:双因素方差分析(two-way ANOVA).

  4. 特殊情况 #3:三个或多个比率(卡方检验)

    1. 对数变换:通过对数变换,把“多元乘法”模型转化成线性模型,从而可以对比率进行建模。关于对数线性模型和对比率的卡方检验的等价性,可以查阅这个非常优秀的介绍。此外,还需要介绍 (log-) odds ratio(一般翻译为“比值比”或“优势比”)。当“多元乘法”模型使用对数变换转化为“加法”模型之后,我们仅加上来自 3.1 的示性变量技巧,就会在接下来发现模型等价于 3.2 和 3.3 的方差分析—-除了系数的解释发生了变化。

    2. 单变量的比率:拟合优度检验.

    3. 双变量的比率:列联表.

  5. 假设检验:

    1. 视为模型比较的假设检验:假设检验用于全模型和某个参数固定了(通常为 0,也即从模型中去除)的模型进行比较,而不是对模型进行估计。比如说,在 t 检验 把两个均值之一固定为零之后,我们探究单独一个均值(单样本 t 检验)对两个组的数据的解释程度。如果解释程度比较好,那么我们更倾向于这个单均值模型,而不是双均值模型,因为前者更为简单。假设检验其实是比较多个线性模型,来获得更多的定量描述。单参数的检验,假设检验包含的信息更少。但是,同时对多个参数(如方差分析的类别变量)进行检验的话,模型比较就会变得没有价值了。

    2. 似然比:似然比是一把瑞士军刀,它适用于单样本 t 检验到 GLMM 等情况。BIC 对模型复杂度进行惩罚。还有,加上先验(prior)的话,你就能得到贝叶斯因子(Bayes Factor)。一个工具,就能解决所有问题。我在上文方差分析中使用了似然比检验。

10 不足之处

一些需要澄清的简化前提:

  1. 我没在这里覆盖到前提假设的内容。这会在另一篇文章揭晓!但是所有检验都很可能有三个预定假设:a) 数据点的独立性,b) 残差的正态性,c) 同方差性(homoscedasticity)。

  2. 我假定所有的零假设是缺失了效应的情况,但是所有原理都和非 0 的零假设所一致的。

  3. 我没有讨论推断内容。因为大家都会关心 p 值,因此我在比较中提到了 p 值,从而简短地展示了背后的模型等价性。参数的估计值也会展示出相同的等价性。如何进行推断则是另一个话题了。我个人是贝叶斯学派的,但是展示贝叶斯学派内容的话,会减少这篇文章的受众。此外,构造稳健模型是更好的选择,但是它无法揭示模型的等价性。

  4. 本文列表依然缺失了很多其它著名的检验,有可能在以后添加进来。比如说符号检验(sign test)(要求很大的 N 从而可以有效地使用线性模型来近似),Friedman 检验 – 即在 rank(y) 上的 RM-ANOVA,McNemar 检验,和二项(Binomial)/多项(Multinomial)检验。在链接一节可查阅更多的等价模型。如果你认为它们需要在本文提及到,欢迎在本文档的 Github 仓库 提交对应说明!

11 附录:翻译稿评论

11.1 译者评论

译者:相对于统计检验来说,线性回归实际上是更符合直觉的。想当年某检验实在让笔者百思不得其解,某师姐指点迷津:“你实在搞不懂可以看成是线性回归对系数的检验,我们如此这般建造一个 X……”让笔者茅塞顿开。故听朋友推荐本文之后,笔者毛遂自荐承接了翻译任务。希望各位读者能从本文感受统计的威力和它带来的喜悦。如各位读者有指正或建议之处,热烈欢迎于主站或微信文下留言评论。

11.2 审稿人讨论

审稿人:我(黄湘云)看完这篇文章的感受是怀疑自己读了个“假”大学,开个玩笑哈!感觉这篇文章是继《心理学的危机》后又一篇需要找个地方安安静静读几天的,文中很多检验的细节都略过了,更加数学严格的检验介绍估计得去看《数理统计引论》陈希孺著的这本书才能明白。这篇文章的覆盖面起码是一个学期的课,如果把本文没有详述的其他检验补充进来,特别是加上检验的数学推导和一些实际应用案例后,估计能成一本书。我是学线性模型的(此线性模型非大多数人了解的彼线性模型),看完之后有点汗颜和如梦初醒,惊奇于作者独具一格的视角。不足之处是有些地方还不够通俗,比如列联表作为对数线性模型来理解,一点也不直接,作者也略去了!这里的列联表其实是指我们通常教科书上的独立性检验。拟合优度检验和独立性检验的检验统计量的极限分布都是卡方分布,故而都归纳在卡方检验下。

文章介绍了那么多的检验问题,实际上都可以归为统计学三大检验 — 似然比检验、 Wald 检验、(Rao)Score(得分)检验 — 在线性模型下的特殊情况。数理统计的教材往往是利用似然比这把瑞士军刀展开介绍的。似然比在假设检验中地位相当于极大似然估计在参数估计中的地位,相当于正态分布在抽样分布中的地位。抽样分布、参数估计和假设检验合称统计推断。学数理统计的人往往不愿去记那么多的检验名称,比如 t 检验、F 检验和卡方检验,特别是诸多名人检验,因为本质上那只是似然比统计量在不同的条件下呈现的极限分布不同而已。三大检验的渐近等价性可参考

  • Dennis D.Boos and L.A. Stefanski. Essential Statistical Inference: Theory and Methods. 2013. Springer, New York. doi:10.1007/978-1-4614-4818-1 Chapter 3. Likelihood-Based Tests and Confidence Regions.

  • Vito M. R. Muggeo and Gianfranco Lovison (2014) The “Three Plus One” Likelihood-Based Test Statistics: Unified Geometrical and Graphical Interpretations, The American Statistician, 68:4, 302-306, DOI: 10.1080/00031305.2014.955212

Rao 在 1948 年给出得分检验的渐近性,文中提及 Rao 得分检验这个名称只是强调 Rao 在得分检验中的贡献,有些书籍中提及 Rao 检验基本等同于得分检验,而拉格朗日乘子检验由 Aitchison 和 Silvey 于 1958 年在经济学领域独立提出来的,所以在统计学文献中见最多的是得分检验,经济学文献中多描述为拉格朗日乘子检验。这二者是殊途同归,都对检验统计量的得分函数做泰勒展开,其极限分布都为卡方分布。

列联表是分类数据的一种方便的组织形式,与之相关的检验和前面带连续变量的线性回归模型的检验是有本质区别的,列联表是与多项分布联系起来的,这里没有残差,线性回归模型往往对残差做了独立同正态分布的假设。


  1. 更加“准确”的说法是:y=β0+β1x+ϵ,但是原文里,本文章的所有相似公式都把残差 ϵ 省略了。—- 译者注

  2. 本文中,factor 翻译为类别变量或因子,level 翻译为取值范围或水平;就译者认为,这两个词语的前一种翻译更贴近常见汉语,后一种翻译虽然简练但是不知所云。—- 译者注

敬告各位友媒,如需转载,请与统计之都小编联系(直接留言或发至邮箱:[email protected]),获准转载的请在显著位置注明作者和出处(转载自:统计之都),并在文章结尾处附上统计之都微信二维码。

统计之都微信二维码

← 基于 Prettydoc 包的模板改造 统计月读(2019年8月) →

发表/查看评论


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK