空间统计学:快速理解反距离加权法(IDW)

这篇具有很好参考价值的文章主要介绍了空间统计学:快速理解反距离加权法(IDW)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

空间插值

说到反距离加权法,首先我们要先了解空间插值的概念

对于一个平面,我们并不能获取所有区域的精确信息,所以一般情况下,我们通过采样的方式只获取部分点的信息。然后通过空间插值,计算出一个区域所有的数据

空间统计学:快速理解反距离加权法(IDW)

左图我采样了部分点的高程数据,右图我通过这部分高程数据,通过空间插值计算出所有区域的数据。

具体插值原理是什么呢,见下图

空间统计学:快速理解反距离加权法(IDW)

 9和10是数据已知的点,那么我通过两点的数据,结合它们之间的距离,我就可以估算出红点的具体数据。

对于空间上的点来说,未知值的点与样本点之间的距离决定了其最终值的估计。

那么具体他是怎么结合距离数据和本身的值计算位置数据的呢?常用的插值方法包括反距离加权法(IDW)、克里金(Kriging)等。那么本篇文章就是讲解其中之一的反距离加权法。

反距离加权法(IDW)

反距离加权法(Inverse Distance Weighting, IDW)是一种常见的空间插值方法,常用于将已知分散的样点数据插值为连续的地表或地下场景。下面是反距离加权法的简要步骤:

  1. 确定待插值位置和已知样点位置。
  2. 根据待插值位置与已知样点的欧几里得距离(或其他距离指标),计算每个样点的权重,一般权重与距离的倒数成正比。
  3. 使用每个样点的权重对其函数值进行加权平均,得到插值结果。

下面详细解释这三个步骤:

1. 确定待插值位置和已知样点位置

首先我们需要确定待插值位置的坐标和范围,以及已知样点的坐标和数值。

2. 计算权重

对于每个待插值位置,我们需要计算它与所有已知样点的距离,并将距离转化为权重。一般来说,样点与待插值位置之间的欧几里得距离越小,样点对插值结果的影响就越大,因此权重与距离成反比,可使用以下公式计算:

空间统计学:快速理解反距离加权法(IDW)

其中 wi​ 是第 i 个样点的权重,di​ 是该样点与待插值位置的距离,p 是一个可调参数,一般取值为 2 (欧几里得距离)或 3 (曼哈顿距离),也可以通过交叉验证等方法来确定最优的 p 值。 

3. 加权平均求解

计算出每个已知样点的权重后,我们可以将它们的函数值进行加权平均,得到待插值位置的函数值。具体地,设已知样点的个数为 N,第 i 个样点的坐标为 (xi​,yi​),权重为 wi​,函数值为 zi​,则待插值位置的函数值z(x,y) 可以通过以下公式计算:

空间统计学:快速理解反距离加权法(IDW)

 其中分子为各样点函数值乘以对应权重的总和,分母为权重之和,它们的比值即为插值结果。

反距离加权法的优缺点

反距离加权法的主要优点是简单易用,而且在样点分布相对均匀的情况下效果较好。它也有一些缺点,例如插值结果表现出的锯齿状特征、函数值抖动等问题。为解决这些问题,通常需要采用其他空间插值方法,例如径向基函数插值(Radial Basis Function, RBF)、克里金插值等。

代码实现

使用 Python 的 Matplotlib 库生成反距离加权法(IDW)插值示意图

import numpy as np
import matplotlib.pyplot as plt
from scipy.interpolate import Rbf

# 构造样点数据
np.random.seed(0)
x = np.random.rand(20) * 10 - 5
y = np.random.rand(20) * 10 - 5
z = np.sin(np.sqrt(x**2 + y**2))
xi, yi = np.meshgrid(np.linspace(-5, 5, 50), np.linspace(-5, 5, 50))

# 计算插值结果
rbf = Rbf(x, y, z, function='inverse')
zi = rbf(xi, yi)

# 绘制示意图
plt.imshow(zi, cmap='rainbow', extent=(-5, 5, -5, 5))
plt.colorbar()
plt.scatter(x, y, c=z, cmap='rainbow', edgecolors='black', linewidths=1)
plt.title('Inverse Distance Weighting Interpolation')
plt.xlabel('X')
plt.ylabel('Y')
plt.show()

 解释代码:

第一部分:

当我们使用反距离加权法对二维数据进行插值时,需要确定已知样点的位置和对应数值,以及待插值位置的坐标。内容包括通过numpy库生成20个随机的二维坐标点,并在这些点上计算对应的函数值。在x轴和y轴上各取50个均匀分布的点,形成二维网格,作为插值结果的横纵坐标。

第二部分:

利用scipy库中的Rbf函数进行插值,并指定插值函数为inverse distance weighting(IDW)。

第三部分:

将插值结果用彩虹色表现出来,并添加颜色条、散点图等元素,以便更好地展示

结果

空间统计学:快速理解反距离加权法(IDW)

其中:

  • 圆点表示已知样点,每个样点都有一个数值。
  • 彩色网格表示未知区域,我们需要计算这些位置的数值。
  • 网格上的每个颜色块表示对应位置的插值结果,颜色越深表示对应位置的数值越大。

通过反距离加权法,可以计算未知区域内每个网格点的数值。以左上角网格点为例,其数值可通过对已知样点进行加权平均得到,权重与样点间的距离成反比,距离越近的样点权重越大。最终得到的插值结果可用于制图、分析等用途。

在该图中,我们可以观察到:

  • 插值结果整体呈现出类似于圆形的形状,与样点分布的形状有关。
  • 在样点位置附近,插值结果的颜色更深,数值更大;而在远离样点的位置,插值结果的颜色较浅,数值较小。
  • 样点之间的插值结果呈现出类似于“锯齿状”的形态,在实际应用过程中需要注意。

总的来说,反距离加权法是一种简单而有效的空间插值方法,适用于各种数据类型和应用领域。文章来源地址https://www.toymoban.com/news/detail-445318.html

到了这里,关于空间统计学:快速理解反距离加权法(IDW)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【应用统计学】方差分析

    【例7-1】 三台设备平均灌装时间分别是15.82秒、16.67秒和14.97秒。试用样本数据检验这3台机器灌装过程的时间是否存在显著不同,以便对设备的购买做出决策。( α=0.05 )  如果检验结果 接受原假设 ,则样本数据表明三台设备的平均灌装时间没有显著差异,选择任何一家提供商

    2023年04月16日
    浏览(42)
  • 统计学期末复习整理

    统计学:描述统计学和推断统计学。计量尺度:定类尺度、定序尺度、定距尺度、定比尺度。 描述统计中的测度: 1.数据分布的集中趋势 2.数据分布的离散程度 3.数据分布的形状。 离散系数 也称为标准差系数,通常是用一组数据的标准差与其平均数之比计算 C . V . = s x ‾

    2024年02月07日
    浏览(43)
  • 统计学 一元线性回归

    回归(Regression) :假定因变量与自变量之间有某种关系,并把这种关系用适当的数学模型表达出来,利用该模型根据给定的自变量来预测因变量 线性回归 :因变量和自变量之间是线性关系 非线性回归 :因变量和自变量之间是非线性关系 变量间的关系 :往往分为 函数关系

    2024年02月06日
    浏览(41)
  • 统计学-R语言-3

    本篇文章是介绍对数据的部分图形可视化的图型展现。 需要注意的是,给直方图拟合正态分布曲线并非总是适用,有时甚至是荒谬的,容易产生误导。合理的做法是为直方图拟合一条核密度估计曲线,它是数据实际分布的一种近似描述。 下面通过一个实际例子说明给直方图

    2024年01月16日
    浏览(41)
  • 统计学-R语言-1

    统计学(statistics)是“数据的科学” 1.是用以收集数据、分析数据和由数据得出结论的一组概念、原则和方法。 2.统计学进行推断的基础是数据(data)。数据不仅仅限于数字,也可能是图表、视频、音频或者文字。 3.收集到数据之后,利用一些方法来整理和分析数据,最后得到结

    2024年02月03日
    浏览(42)
  • 数据科学、统计学、商业分析

    数据科学、统计学、商业分析是在各方面有着不同的侧重和方向的领域。  1.专业技能 数据科学(Data Science):数据科学涉及从大量数据中提取有价值的信息、模式和洞察力的领域。它使用多种技术和领域知识,如统计学、机器学习、数据库管理、数据可视化等,进行数据清

    2024年02月15日
    浏览(48)
  • SCAU 统计学 实验5

    8.14 总体平均值(μ):7.0 cm 总体方差(σ²):0.03 cm² 样本平均值(x̄):6.97 cm 样本方差(s²):0.0375 cm² 样本大小(n):80 在这个问题中,我们已经知道总体方差(σ²),所以应该使用 z 检验。 将检验以下零假设(H₀): H₀: μ = 7.0 cm 与备择假设(H₁): H₁: μ ≠

    2024年02月01日
    浏览(39)
  • 统计学-R语言-4.6

    本篇文章是对数据可视化的补充文章。 跳转至该篇博客 跳转至该篇博客 在上面两篇博客中,对单变量和双变量的列联表进行了实例展示,下面是对三维列联表进行实例。 行变量为被调查者所属社区和性别,列变量为态度的三维列联表: 生成行变量为被调查者性别和态度,

    2024年01月18日
    浏览(39)
  • 统计学-R语言-4.7

    本篇文章将介绍数据的描述统计量。 平均数也称为均值,常用的统计量之一 消除了观测值的随机波动 易受极端值的影响 根据总体数据计算的,称为总体平均数,记为;根据样本数据计算的,称为样本平均数,记为 。 设一组数据为:x1 ,x2 ,… ,xn (总体数据xN) 。 计算

    2024年01月16日
    浏览(38)
  • 统计学-R语言-5.2

    本篇文章将继续上篇的进行介绍。 大数定理大数定理”的另一种表达方式是“均值定理”,其含义是,随机变量X多个观察值的均值会随着观察值的增加越发趋近于总体的期望值,中心极限定理进一步告诉我们,均值服从期望为μ 的正态分布。在各种测量试验中,我们一般都

    2024年01月18日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包