时间序列的数据分析(七):数据平稳性

这篇具有很好参考价值的文章主要介绍了时间序列的数据分析(七):数据平稳性。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

时间序列的数据分析(七):数据平稳性

之前已经完成了六篇关于时间序列的博客,还没有阅读过的读者请先阅读:

  1. 时间序列的数据分析(一):主要成分

  2. 时间序列的数据分析(二):数据趋势的计算

  3. 时间序列的数据分析(三):经典时间序列分解 
  4.  时间序列的数据分析(四):STL分解
  5. 时间序列的数据分析(五):简单预测法

     6. 时间序列的数据分析(六):指数平滑预测法

数据平稳性(Stationarity)

 数据平稳性是指时间序列的统计特性如均值、方差、协方差不随时间变化而变化。换句话说,时间序列的均值、方差和协方差随时间保持不变。

时间序列的数据分析(七):数据平稳性

 如何评估数据的平稳性: 视觉评估

如果时间序列数据同时具有恒定的均值,方差,协方差这三个特征,那么我们可以认定数据是平稳的,反之数据是非平稳的。因此我们可以通过简单的视觉方法来观察数据的变化规律,从而可以判断出数据是否是平稳:

时间序列的数据分析(七):数据平稳性

简单计算来识别数据的平稳性

我们大体上可以将时间序列数据分成两半:前半部分和后半部分。并比较前半部分和后半部分的均值、振幅和周期长度。这里振幅对应方差,周期长度对应协方差。

  • 常数均值:数据的前半部分和后半分的均值相似(无需绝对相等)
  • 常数方差: 数据的前半部分和后半分的振幅相似(无需绝对相等)
  • 常数协方差: 数据的前半部分和后半分的周期长度相似(无需绝对相等)

如果时间序列数据同时具有常数均值,常数方差,常数协方差这三个特征,那么我们可以认定数据是平稳的,反之数据是不平稳的。

时间序列的数据分析(七):数据平稳性

统计检验来评估平稳性

严格的统计检验来评估数据的平稳性也称为单根检验(unit root test),单根是一种随机趋势,称为“带漂移的随机游走”。由于无法预测随机性,这意味着:

  • 存在单位根:非平稳(不可预测)
  • 没有单位根:平稳

要使用单位根检验来评估平稳性需要使用假设检验:

  • 零假设(Null hypothesis,H0): 时间序列是平稳的(不存在单根)
  • 备择假设 (Alternative hypothesis,H1) :时间序列不平稳的(存在单位根)

注意,这里的H0和H1具体的假设内容并不一定为上述内容为准,也可能正好相反,假设的内容要有具体的检验方法确定的。

然后,将根据统计计算结果评估是否拒绝零假设,如果拒绝H0,则意味着接受H1,反之亦然。

  • p 值方法:
    如果 p 值 > 0.05,则无法拒绝零假设。
    如果 p 值 ≤ 0.05,则拒绝零假设。
  • 临界值方法:
    如果检验统计量没有临界值那么极端,则无法拒绝零假设。
    如果检验统计量比临界值更极端,则拒绝零假设。

注:当 p 值接近显著值(例如,大约 0.05)时,应使用临界值方法 .

常用的单根检验方法

1.Augmented Dicky Fuller Test(ADF检验)

Augmented Dickey-Fuller (ADF) 检验的假设是:

  • 零假设 (H0):时间序列非平稳的,因为存在单位根(如果 p 值 > 0.05)
  • 备择假设 (H1):时间序列是平稳的,因为没有单位根(如果 p 值 ≤ 0.05)

在Python中我们可以使用statsmodels包的adfuller方法来实现ADF检验。不过为了检验单根检验结果的有效性,我们事先准备好了两套数据,一个是航空公司历年乘客数量数据,另一个是白噪声数据,这里的乘客数据有着明显的趋势性,所以它是非平稳的,而白噪声数据则是平稳的。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
plt.style.use('ggplot')
plt.rc("figure", figsize=(10,4))

#非平稳的航空乘客数据
df=pd.read_csv('passengers.csv').set_index('Period')
df.plot();

时间序列的数据分析(七):数据平稳性

# 平稳的白噪声序列
np.random.seed(10)
y= np.random.normal(loc=0,scale=1,size=500)
white_noise = pd.Series(y)
white_noise.plot();

时间序列的数据分析(七):数据平稳性

 下面我们使用adf来分别检验这两种数据的平稳性。

from statsmodels.tsa.stattools import adfuller

#航空公司乘客数据adf检验
result = adfuller(df["passengers"].values)

print('ADF Statistics: %f' % result[0])
print('p-value: %f' % result[1])
print('Critical values:')
for key, value in result[4].items():
    print('\t%s: %.3f' % (key, value))

print(f'Result: The series is {"not " if result[1] > 0.05 else ""}stationary')

时间序列的数据分析(七):数据平稳性

判断标准:

  • 如果P-value <=0.05 并且 test statistic< 1% 的临界值(Critical values) 则拒绝零假设。
  • 如果P-value > 0.05 或者 test statistic> 1% 的临界值(Critical values) 则接接受零假设。

这里我们的P-value为0.99 > 0.05 所以接受零假设,即数据是非平稳的。(adf的零假设为数据是非平稳的)。

#白噪声的adf建议结果
result = adfuller(white_noise.values)
print('ADF Statistics: %f' % result[0])
print('p-value: %f' % result[1])
print('Critical values:')
for key, value in result[4].items():
    print('\t%s: %.3f' % (key, value))
print(f'Result: The series is {"not " if result[1] > 0.05 else ""}stationary')

 时间序列的数据分析(七):数据平稳性

 这里pvale值为0.0<0.05 并且 test statistic值为-23.677<1%的临界值-3.443,所以拒绝H0,接受H1,即数据是平稳的。

2. Kwiatkowski-Phillips-Schmidt-Shin Test (KPSS 检验)

KPSS是用来计算零假设数据是水平或趋势平稳的检验方法。

KPSS 检验的假设是:

  • 零假设 (H0):时间序列是平稳的,因为没有单位根(如果 p 值 > 0.05)
  • 备择假设 (H1):时间序列非平稳的,因为存在单位根(如果 p 值 ≤ 0.05)

注意:KPSS检验和ADF检验它们的假设正好相反。

在Python中我们可以使用statsmodels包的kpss方法来实现KPSS检验。在kpss中有一个参数regression,因为航空公司乘客数据是有明显的趋势,看上去是趋势稳定的,因此regression必须设置为“ct”

from statsmodels.tsa.stattools import kpss
# 检验航空乘客数据
statistic, p_value, n_lags, critical_values = kpss(df["passengers"].values,
                                                   regression = "ct");
print(f'KPSS Statistic: {statistic}')
print(f'p-value: {p_value}')
# print(f'num lags: {n_lags}')
print('Critial Values:')
for key, value in critical_values.items():
    print(f'   {key} : {value}')
print(f'Result: The series is {"not " if p_value < 0.05 else ""}stationary')

时间序列的数据分析(七):数据平稳性

判断标准:

  • 1.如果P-value <=0.05 并且 test statistic>临界值(Critical values) 则拒绝零假设。
  • 2.如果P-value > 0.05 或者 test statistic<临界值(Critical values) 则接接受零假设。

这里我们的P-value为0.1 > 0.05 所以接受零假设,即数据是平稳的。

#检验白噪声
statistic, p_value, n_lags, critical_values = kpss(white_noise.values)
print(f'KPSS Statistic: {statistic}')
print(f'p-value: {p_value}')
print(f'num lags: {n_lags}')
print('Critial Values:')
for key, value in critical_values.items():
    print(f'   {key} : {value}')
print(f'Result: The series is {"not " if p_value < 0.05 else ""}stationary')

时间序列的数据分析(七):数据平稳性

 这里白噪声的P-value为0.1 > 0.05 所以接受零假设,即数据是平稳的。

单根检验存在的问题

不同的单根检验方法如adf,kpss等有时候会给出截然相反的结论,这会使人产生困惑,为了确保检验结果的正确性,我们必须要用2种或以上方法同时做检验,下面是2种方法做检验时候会遇到的情况:

  • 情况1:两个测试都得出的结论都是是平稳的,那么数据是平稳的。
  • 情况2: 两个测试都得出的结论都是非平稳的,那么数据是非平稳的。
  • 情况3:ADF 得出非平稳的结论,KPSS 得出平稳的结论,那么数据是趋势平稳。
  • 情况4:ADF 得出平稳的结论,KPSS 得出非平稳的结论,那么数据是差分平稳。

如何处理非平稳的数据

当我们的时间序列时间是非平稳的时候,那么我们可以通过以下方法使数据变的平稳:

  • 差分
  • 通过模型拟合去趋势
  • 对数变换

1.差分

差分是计算两个连续观察值之间的差值。它会使时间序列的均值变得稳定,从而减少了趋势。下面我们拿特斯拉的股票数据来实现差分操作:

#加载特斯拉股票数据
df= pd.read_csv('./data/tsla.csv')
df.date=pd.to_datetime(df.date)

# 对特斯拉股票数据进行差分处理
df['diff_Close']= df['Close'].diff()

#绘图
fig, axs = plt.subplots(2, 1,figsize=(10,8))
axs[0].plot(df.date,df.Close)
axs[0].set_title('Tsla Stock Price')
axs[1].plot(df.date,df.diff_Close)
axs[1].set_title('differencing Tsla Stock Price')
plt.show();

时间序列的数据分析(七):数据平稳性

 通过对特斯拉股票数据进行一阶差分操作后我们得到了一个类似于白噪声的序列,它近似平稳。有时候如果一阶差分的结果仍然不平稳,那么还可以进行二阶差分操作,但一般不会做二阶以上的差分。

2.通过模型拟合去除趋势

从非平稳时间序列中去除趋势的一种方法是将简单模型(如线性回归)拟合到数据,然后从该拟合中对残差进行建模。

from sklearn.linear_model import LinearRegression

#非平稳的航空乘客数据
df=pd.read_csv('passengers.csv')
df.Period=pd.to_datetime(df.Period)

# 训练线下回归模型 
X = [i for i in range(0, len(df))]
X = np.reshape(X, (len(X), 1))
y = df["passengers"].values
model = LinearRegression()
model.fit(X, y)

# 计算趋势
trend = model.predict(X)

# 去除趋势
df["detrend"] = df["passengers"].values - trend

#绘图
fig, axs = plt.subplots(2, 1,figsize=(10,8))
axs[0].plot(df.Period,df.passengers)
axs[0].set_title('passengers')
axs[1].plot(df.Period,df.detrend)
axs[1].set_title('detrend passengers')
plt.show();

时间序列的数据分析(七):数据平稳性

 去趋势的方法可以稳定数据的均值,但是均值稳定了并不意味着数据就是平稳的,上述航空乘客数据经过去趋势操作后悔,虽然均值稳定了,但是方差仍然不稳定,那是否可以让让方差也变得稳定呢?

3.对数变换

对数变换可以让时间序列数据的方差变得更加稳定,上述航空公司乘客数据经过去除趋势处理后,均值变得稳定了,但是方差仍然不稳定,因此我们需要做对数变换,让其方差变得稳定。

df=pd.read_csv('passengers.csv')
df.Period=pd.to_datetime(df.Period)
#对数变换
df['log_passengers'] = np.log(df['passengers'].values)

# 训练线下回归模型 
X = [i for i in range(0, len(df))]
X = np.reshape(X, (len(X), 1))
y = df["log_passengers"].values
model = LinearRegression()
model.fit(X, y)

# 计算趋势
trend = model.predict(X)

# 去除趋势
df["detrend_log_passengers"] = df["log_passengers"].values - trend

#绘图
fig, axs = plt.subplots(3, 1,figsize=(10,10))
axs[0].plot(df.Period,df.passengers)
axs[0].set_title('passengers')
axs[1].plot(df.Period,df.log_passengers)
axs[1].set_title('log passengers')

axs[2].plot(df.Period,df.detrend_log_passengers)
axs[2].set_title('detrend log passengers')
plt.show();

时间序列的数据分析(七):数据平稳性

 上述数据经过对数变换和去趋势操作以后,数据变得均值稳定和方差稳定,因此是比较理想的结果。

总结

在时间序列预测中,当时间序列数据具有恒定统计特性(均值、方差和协方差)并且这些统计特性与时间无关时,则被称为数据是平稳的。由于恒定的统计特性,平稳时间序列比非平稳时间序列更容易建模。因此,许多时间序列预测模型都假设数据是平稳的。

平稳性可以通过视觉评估或统计方法来检查。统计方法检查数据中是否存在单根(unit root)。两个最常用的单根检验是 ADF 和 KPSS。我们可以在Python的第三方库statsmodels.tsa.stattools中调用它们。

如果时间序列是非平稳的,您可以尝试通过差分、对数变换或去除趋势使其变得平稳。

参考资料

stationarity_detrending_adf_kpss

statsmodels.tsa.stattools.adfuller

statsmodels.tsa.stattools.kpss文章来源地址https://www.toymoban.com/news/detail-427508.html

到了这里,关于时间序列的数据分析(七):数据平稳性的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ARIMA模型时间序列数据分析(附python代码)

    ARIMA模型建模流程  1 )平稳性检验与差分处理 我们选取原始数据 bus 中的“ prf_get_person_count ”列,并截取前 32 个站点的数据进行平稳性检验,这里采用的是 ADF 检验确定数据的平稳性,导入 statsmodels 包下的 adfuller 函数,该函数返回 adf 值与概率 p 值。若原始序列不平稳,就

    2024年02月01日
    浏览(56)
  • Python探索金融数据进行时间序列分析和预测

    大家好,时间序列分析是一种基于历史数据和趋势分析进行预测的统计技术。它在金融和经济领域非常普遍,因为它可以准确预测趋势并做出明智的决策。本文将使用Python来探索经济和金融数据,执行统计分析,并创建时间序列预测。 我们将在本教程中使用NumPy、Pandas和Mat

    2024年02月16日
    浏览(57)
  • Flink的流式数据处理与时间序列分析

    Apache Flink 是一个流处理框架,用于实时数据处理和分析。它支持大规模数据流处理,具有高吞吐量和低延迟。Flink 可以处理各种数据源和数据接收器,如 Kafka、HDFS、TCP 流等。 时间序列分析是一种用于分析时间序列数据的方法,用于发现数据中的趋势、季节性和随机性。时间

    2024年02月21日
    浏览(50)
  • GEE:基于GLDAS数据集分析土壤湿度的时间序列变化

    作者:CSDN @ _养乐多_ 本篇博客将介绍如何使用Google Earth Engine(GEE)进行土壤湿度数据的分析。我们将使用NASA GLDAS(Global Land Data Assimilation System)数据集,其中包括了关于土壤湿度的信息。通过该数据集,我们将了解土壤湿度在特定区域和时间段内的变化,并生成时间序列图

    2024年02月07日
    浏览(48)
  • Python数据分析案例42——基于Attention-BiGRU的时间序列数据预测

    承接上一篇的学术缝合,排列组合模型,本次继续缝合模型演示。 Python数据分析案例41——基于CNN-BiLSTM的沪深300收盘价预测-CSDN博客 虽然我自己基于各种循环神经网络做时间序列的预测已经做烂了.....但是还是会有很多刚读研究生或者是别的领域过来的小白来问这些神经网络

    2024年04月15日
    浏览(40)
  • 数据分享|R语言分析上海空气质量指数数据:kmean聚类、层次聚类、时间序列分析:arima模型、指数平滑法...

    最近我们被客户要求撰写关于上海空气质量指数的研究报告。本文向大家介绍R语言对上海PM2.5等空气质量数据 ( 查看文末了解数据免费获取方式 ) 间的相关分析和预测分析,主要内容包括其使用实例,具有一定的参考价值,需要的朋友可以参考一下 ( 点击文末“阅读原文

    2024年02月09日
    浏览(58)
  • 大数据毕业设计:智慧交通数据分析系统 python 时间序列预测算法 爬虫 出行速度预测 拥堵预测(源码)✅

    博主介绍:✌全网粉丝10W+,前互联网大厂软件研发、集结硕博英豪成立工作室。专注于计算机相关专业毕业设计项目实战6年之久,选择我们就是选择放心、选择安心毕业✌感兴趣的可以先收藏起来,点赞、关注不迷路✌ 毕业设计:2023-2024年计算机毕业设计1000套(建议收藏)

    2024年02月22日
    浏览(59)
  • 计算机竞赛 基于大数据的时间序列股价预测分析与可视化 - lstm

    🔥 优质竞赛项目系列,今天要分享的是 🚩 毕业设计 大数据时间序列股价预测分析系统 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🥇学长这里给一个题目综合评分(每项满分5分) 难度系数:3分 工作量:3分 创新点:3分 🧿 更多资料, 项目分享: https://gite

    2024年02月11日
    浏览(43)
  • 互联网加竞赛 基于大数据的时间序列股价预测分析与可视化 - lstm

    🔥 优质竞赛项目系列,今天要分享的是 🚩 毕业设计 大数据时间序列股价预测分析系统 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🥇学长这里给一个题目综合评分(每项满分5分) 难度系数:3分 工作量:3分 创新点:3分 🧿 更多资料, 项目分享: https://gite

    2024年01月15日
    浏览(54)
  • 【视频】Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析|数据分享...

    在本文中,长短期记忆网络——通常称为“LSTM”——是一种特殊的RNN递归神经网络,能够学习长期依赖关系 ( 点击文末“阅读原文”获取完整 代码数据 ) 。 视频:LSTM 神经网络架构和工作原理及其在Python中的预测应用 什么是依赖关系? 假设您在观看视频时记得前一个场

    2024年02月11日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包