标准误与聚类稳健标准误的理解,基于R实现和Stata实现

这篇具有很好参考价值的文章主要介绍了标准误与聚类稳健标准误的理解,基于R实现和Stata实现。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 标准误

1.1 定义

标准误(Standard Error)是用来衡量统计样本估计量(如均值、回归系数等)与总体参数之间的差异的一种统计量。标准误衡量了样本估计量的变异程度,提供了对总体参数的估计的不确定性的度量。标准误越小,表示样本估计量与总体参数的估计越接近,估计越稳定。

1.2 计算公式

S E = σ n SE= \frac{σ}{ \sqrt n} SE=n σ

2 聚类稳健标准误

聚类稳健标准误的计算方法通常涉及到对观察数据进行分组,然后在每个组内计算残差平方,并最终将这些残差平方加总起来。具体步骤如下:

  • 将数据分组: 将观察数据按照聚类结构分成不同的组。

  • 计算每个组内的残差平方和: 在每个组内进行回归分析,得到每个观察值的残差(观察值与回归线的差异),然后将这些残差平方加总得到每个组的残差平方和。

  • 计算聚类稳健标准误: 将每个组内的残差平方和相加,然后除以总观察数减去组数得到均值,最后取平方根即得到聚类稳健标准误。

2.1 为何聚类之后能降低估计误差?

使用聚类稳健标准误可以降低估计误差,主要是因为它纠正了数据的聚类结构可能导致的异方差性(heteroscedasticity)问题。异方差性是指误差项的方差不是恒定的,而是随着自变量的变化而变化。在具有聚类结构的数据中,观察值往往在同一个聚类内更加相似,这可能导致同一聚类内的观察值之间的误差方差较小,而不同聚类之间的误差方差较大。

在传统的普通最小二乘(OLS)回归中,如果忽略了这种异方差性,估计的标准误可能会被低估。也就是说,估计结果看起来比实际更加精确,而这种低估会使得统计检验的结果产生误导,导致错误的显著性结论。聚类稳健标准误通过将数据分成聚类组并纠正组内相关性,更准确地估计了总体误差的方差,从而避免了异方差性引起的估计误差。

代码实现

# 安装并加载必要的包
# install.packages("boot")
library(boot)

# 模拟数据
set.seed(123)  # 设置随机种子以确保结果的可重复性
n <- 100  # 样本数量
x <- rnorm(n)  # 自变量
y <- 2 * x + rnorm(n)  # 因变量(带有误差项)

# 最小二乘回归
lm_model <- lm(y ~ x)
print('----------------------不加聚类稳健标准误-----------------------------------------')
summary(lm_model)
print('----------------------不加聚类稳健标准误(见上)-----------------------------------------')
# 自助法计算回归系数的标准误
# 自助法计算回归系数的P值、系数、标准误和统计量
boot_results <- boot(data = data.frame(x = x, y = y), statistic = function(data, indices) {
  sampled_data <- data[indices, ]
  lm_result <- lm(y ~ x, data = sampled_data)
  
  # 提取回归系数
  coefficients <- coef(lm_result)
  
  # 计算标准误
  se <- summary(lm_result)$coefficients[, "Std. Error"]
  
  # 计算t统计量
  t_stat <- coefficients / se
  
  # 计算P值
  p_values <- 2 * (1 - pt(abs(t_stat), df = nrow(sampled_data) - length(coefficients)))
  
  # 返回回归系数、P值、标准误和t统计量
  result <- cbind(coefficients, p_values, se, t_stat)
  return(result)
}, R = 1000)  # 进行1000次自助法抽样

print('----------------------加聚类稳健标准误-----------------------------------------')
# 查看回归系数的P值、系数、标准误和t统计量估计结果
head(boot_results$t)
print('----------------------加聚类稳健标准误(见上)-----------------------------------------')




# 加载所需的库
library(ggplot2)
library(dplyr)
library(cluster)

# 生成模拟数据
set.seed(123)
data <- mtcars %>% sample_n(50, replace = TRUE)
if (nrow(data) > 32) {
  warning("Sample size is larger than the number of rows in the data frame.")
} else {
  print(data)
}

# 使用OLS进行回归分析
model <- lm(mpg ~ wt + disp, data = data)
summary(model)

# 计算聚类标准误
kmeans_result <- kmeans(data[, c("wt", "disp")], centers = 3)
data$cluster <- as.factor(kmeans_result$cluster)
ols_by_cluster <- lapply(unique(data$cluster), function(x) {
  cluster_data <- data[data$cluster == x, ]
  model <- lm(mpg ~ wt + disp, data = cluster_data)
  summary(model)$coefficients["(Intercept)"]
})

# 将聚类标准误转换为数据框
ols_by_cluster <- do.call(rbind, ols_by_cluster)
names(ols_by_cluster) <- paste0("Cluster", unique(data$cluster))
ols_by_cluster <- as.data.frame(ols_by_cluster)

# 可视化结果并进行对比
ggplot(data, aes(x = wt, y = mpg)) +
  geom_point() +
  geom_smooth(method = "lm", se = FALSE, color = "red") +
  labs(title = "OLS回归与聚类回归对比", x = "wt", y = "mpg") +
  theme_minimal() +
  geom_line(aes(y = ols_by_cluster$Cluster1), group = 1, color = "blue", linetype = "dashed") +
  geom_line(aes(y = ols_by_cluster$Cluster2), group = 1, color = "green", linetype = "dashed") +
  geom_line(aes(y = ols_by_cluster$Cluster3), group = 1, color = "orange", linetype = "dashed")




# 加载所需的库
library(ggplot2)
library(dplyr)
library(cluster)

# 生成随机数据
set.seed(123)
data <- mtcars %>% sample_n(100, replace = TRUE)

# 使用OLS进行回归分析
model <- lm(mpg ~ wt + qsec, data = data)
summary(model)
ols_results <- summary(model)$coefficients

# 计算聚类标准误
kmeans_result <- kmeans(data[, c("wt", "qsec")], centers = 3)
cluster_centers <- kmeans_result$centers
cluster_labels <- kmeans_result$cluster

regression_by_cluster <- lapply(1:3, function(cluster_label) {
  cluster_data <- data[cluster_labels == cluster_label, ]
  model <- lm(mpg ~ wt + qsec, data = cluster_data)
  return(summary(model)$coefficients)
})

cluster_se <- lapply(1:3, function(cluster_label) {
  regression_result <- regression_by_cluster[[cluster_label]]
  residuals <- resid(model)
  cluster_residuals <- residuals[cluster_labels == cluster_label]
  return(sqrt(sum((cluster_residuals - mean(cluster_residuals))^2) / (length(cluster_residuals) - 3)))
})

# 可视化结果并进行对比
data_for_plot <- data.frame(wt = data$wt, qsec = data$qsec, mpg = data$mpg, cluster = cluster_labels)
ggplot(data_for_plot, aes(x = wt, y = qsec, color = cluster)) +
  geom_point() +
  geom_line(aes(y = ols_results[1], group = 1), color = "red") +
  geom_line(aes(y = ols_results[2], group = 1), color = "blue") +
  geom_line(aes(y = regression_by_cluster[[1]][1], group = 1), color = "green", linetype = "dashed") +
  geom_line(aes(y = regression_by_cluster[[1]][2], group = 1), color = "purple", linetype = "dashed") +
  labs(title = "OLS回归与聚类之后回归的对比", x = "wt", y = "qsec") +
  theme_minimal()



stata中

*-双向固定效应模型
xtset id year
xtreg y x i.year, fe robust
xtreg y x i.year, fe vce(cluster id)  //与上一条命令等价

【传送门】文章来源地址https://www.toymoban.com/news/detail-724933.html

到了这里,关于标准误与聚类稳健标准误的理解,基于R实现和Stata实现的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习基础之《回归与聚类算法(4)—逻辑回归与二分类(分类算法)》

    一、什么是逻辑回归 1、逻辑回归(Logistic Regression)是机器学习中的一种分类模型,逻辑回归是一种分类算法,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛 2、叫回归,但是它是一个分类算法 二、逻辑回归的应用场

    2024年02月07日
    浏览(49)
  • 基于MATLAB环境下的子空间聚类算法:理解和实践

    大家好,我是一名热衷于算法研究的技术博主。今天我想和大家分享关于子空间聚类算法在MATLAB环境下的实现和理解。我会尽可能详细地介绍相关知识,同时在文章中附带了些示例代码以供参考。聚类/子空间聚类算法是一种极具价值的研究方向,我希望大家在阅读本文后能有

    2024年02月17日
    浏览(32)
  • 聚类分析 | MATLAB实现基于AHC聚类算法可视化

    效果一览 基本介绍 AHC聚类算法,聚类结果可视化,MATLAB程序。 Agglomerative Hierarchical Clustering(自底向上的层次聚类)是一种经典的聚类算法,它的主要思想是将每个数据点视为一个簇,然后将距离最近的两个簇合并,直到达到预设的聚类个数或者所有数据点都被合并为一个簇

    2024年02月11日
    浏览(44)
  • 聚类分析 | MATLAB实现基于DBSCAD密度聚类算法可视化

    效果一览 基本介绍 基于DBSCAD密度聚类算法可视化,MATLAB程序。 使用带有KD树加速的dbscan_with_kdtree函数进行密度聚类。然后,我们根据每个簇的编号使用hsv色彩映射为每个簇分配不同的颜色,并用散点图进行可视化展示。同时,我们用黑色的\\\"x\\\"标记表示噪声点。请注意,DBSC

    2024年02月11日
    浏览(37)
  • 聚类分析 | MATLAB实现基于SOM自组织特征映射聚类可视化

    效果一览 基本介绍 基于自组织特征映射聚类算法(SOM)的数据聚类可视化 可直接运行 注释清晰 Matlab语言 1.多特征输入,图很多,包括可视化图、权重位置图、邻点连接图、输入平面图等等,可完全满足您的需求~ 2.直接替换数据即可用 适合新手小白~ 3.附赠案例数据 可直接

    2024年02月09日
    浏览(38)
  • Linux文件系列: 深入理解缓冲区和C标准库的简单模拟实现

    至此,我们理解了缓冲区的概念和作用,下面我们来简易模拟实现一下C标准库 我们要实现的是: 1.文件结构体的定义 1.首先要有一个文件结构体: 刷新策略分别宏定义为 2.myfopen等等函数的声明 path:文件路径+文件名 mode:打开文件的方式 “r”:只读 “w”:覆盖写 “a”:追加写 strea

    2024年03月11日
    浏览(66)
  • 【论文复现】——Patchwork++:基于点云的快速稳健地面分割方法

    本文使用PCL进行实现。   这是韩国团队2022年的最新文章:Patchwork++: Fast and Robust Ground Segmentation Solving Partial Under-Segmentation Using 3D Point Cloud。 源码: https://github.com/url-kaist/patchwork-plusplus.git   在使用3D激光雷达的3D感知领域,对于可行驶区域检测及物体识别等各种操作,地

    2024年02月13日
    浏览(55)
  • 基于Word2vec词聚类的关键词实现

    基于Word2Vec的词聚类提取包括以下步骤: 整个流程的核心在于使用Word2Vec模型得到词向量,然后通过聚类算法将相似的词语归为一簇,最终提取每个簇的代表性词语作为。这种方法能够捕捉词语之间的语义关系,提高的表达力。 词向量的预处理 基于word2

    2024年01月18日
    浏览(53)
  • 多元线性回归(OLS+稳健误)python代码实现

    多元线性回归主要适用于应变量和自变量具有较强的线性关系,且主要研究 因变量(被解释变量) 和 自变量(解释变量) 之间的 相关关系 ,从而达到解释或者预测的作用。而且一般用于处理 横截面数据 ,横截面数据一般为同一时间段的不同对象的数据,比如同一年中的

    2024年02月03日
    浏览(36)
  • Python实现稳健线性回归模型(rlm算法)项目实战

    说明:这是一个机器学习实战项目(附带 数据+代码+文档+视频讲解 ),如需 数据+代码+文档+视频讲解 可以直接到文章最后获取。 稳健回归可以用在任何使用最小二乘回归的情况下。在拟合最小二乘回归时,我们可能会发现一些异常值或高杠杆数据点。已经确定这些数据点

    2024年01月22日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包