爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率)

这篇具有很好参考价值的文章主要介绍了爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

akshare是一个很好用的财经数据api接口,完全免费!!和Tushare不一样。

除了我标题显示的数据外,他还提供各种股票数据,债券数据,外汇,期货,宏观经济,基金,银行,货币等等。

基本上我找经济类数据都优先用这个,本次就展示一下怎么获取标题上的这几个数据。


代码获取

先导入包:

import numpy as np
import pandas as pd
import akshare as ak
import warnings
warnings.filterwarnings('ignore')

获取美团对人民币汇率:(这里原本是可以返回很多国家对人民币的汇率的,我只取出了美国,并且原数据是日度的,我重采样为了月度数据)

currency_boc_safe_df = ak.currency_boc_safe().iloc[:,:2]
currency_boc_safe_df=currency_boc_safe_df.set_index('日期')
currency_boc_safe_df.index=pd.to_datetime(currency_boc_safe_df.index)
currency_boc_safe_df.rename(columns={'美元':'汇率'},inplace=True)
currency_boc_safe_df=currency_boc_safe_df.resample('M').mean()
currency_boc_safe_df

 爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据

没什么问题,现在人民币汇率大概是7点多。数据时间口径也是月度。


获取外汇储备

#外汇储备
macro_china_fx_reserves_yearly_df = ak.macro_china_fx_reserves_yearly().rename("外汇储备")
macro_china_fx_reserves_yearly_df

爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据

这个数据本来就是月度的,所以就不需要额外处理,2014年是半年一个,可能原因是那个时候公布数据可能只是半年一次吧。到2016年就正常了。


获取广义货币量M2:

#M2
macro_china_m2_yearly_df = ak.macro_china_m2_yearly().rename("M2")
macro_china_m2_yearly_df

 爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据


美国CPI:
 

#美国CPI
macro_usa_cpi_monthly_se = ak.macro_usa_cpi_monthly().rename("美国CPI")
macro_usa_cpi_monthly_se

爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据


国债利率:
 

#国债利率
import datetime
start_date = datetime.date(2016, 1, 1)
end_date = datetime.date(2023, 12, 31)
all_data_formatted = pd.DataFrame()
current_date_formatted = start_date
while current_date_formatted <= end_date:
    year_end_date_formatted = min(datetime.date(current_date_formatted.year + 1, 1, 1) - datetime.timedelta(days=1), end_date)
    
    start_date_str = current_date_formatted.strftime('%Y%m%d')
    end_date_str = year_end_date_formatted.strftime('%Y%m%d')
    year_data_formatted = ak.bond_china_yield(start_date=start_date_str, end_date=end_date_str)
    all_data_formatted = pd.concat([all_data_formatted, year_data_formatted])
    current_date_formatted = year_end_date_formatted + datetime.timedelta(days=1)
all_data_formatted.head()

爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据

 国债这个接口每次只能返回一年的数据,所以需要获取很多次,然后还需要把自己需要的1年期的国债利率取出来。

bond_china_yield_df = all_data_formatted[['曲线名称', '日期', '1年']].query('曲线名称=="中债国债收益率曲线"')
bond_china_yield_df=bond_china_yield_df.drop(columns='曲线名称').set_index('日期').rename(columns={'1年':"国债利率"})
bond_china_yield_df.index=pd.to_datetime(bond_china_yield_df.index)
bond_china_yield_df=bond_china_yield_df.resample('M').mean()
bond_china_yield_df

爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据


 贸易顺差:

macro_china_trade_balance_df = ak.macro_china_trade_balance().rename("贸易顺差")
macro_china_trade_balance_df.tail()

爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据


是不是都很方便,几行代码有的甚至一行代码就能获取你去统计年鉴翻遍的数据。

最后把数据都进行合并;

merged_df = pd.concat([currency_boc_safe_df, macro_china_fx_reserves_yearly_df, macro_china_m2_yearly_df, 
                       macro_usa_cpi_monthly_se, bond_china_yield_df, macro_china_trade_balance_df], axis=1).loc['2016-01-01':,:].resample('M').mean()
merged_df.index = merged_df.index.to_period('M') 
merged_df

爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率),爬虫,python,数据分析,数据获取,经济数据

除了几个月的某些指标没有数据外,其他数据都是整整齐齐的,很不错。很方便,这样就可以进行自己的下一步研究了。

当然我这是选择了几个需要的指标,方便我下一篇进行建模分析。

akshare还有超级多的种类的经济数据,可以自己去查看官方文档怎么获取。

不会获取的同学需要我这里的数据可以参考我下一篇的文章里面的数据获取方式:


创作不易,看官觉得写得还不错的话点个关注和赞吧,本人会持续更新python数据分析领域的代码文章~文章来源地址https://www.toymoban.com/news/detail-808600.html

到了这里,关于爬虫接口获取外汇数据(汇率,外汇储备,贸易顺差,美国CPI,M2,国债利率)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 使用fetch()异步请求API数据实现汇率转换器

    任务8 https://segmentfault.com/a/1190000038998601 https://chinese.freecodecamp.org/news/how-to-master-async-await-with-this-real-world-example/ 跟随上面的指示,理解异步函数的编写,并且实现这个汇率转换器。 第一步:在工作区初始化, 创建package.json文件 如果没有npm init -y 创建package.json文件会怎么样? 如

    2023年04月17日
    浏览(55)
  • 利用Python爬虫获取xx数据

    目录 一、前言 二、requests 请求库 1、requests 安装 2、requests 的基本使用 三、Beautiful Soup 1、Beautiful Soup 安装 2、BeautifulSoup对象介绍与创建 3、BeautifulSoup对象的find方法 四、总结 什么是爬虫? 网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟客户端发送网络请求,获取响应

    2024年03月20日
    浏览(46)
  • API商品数据接口调用爬虫实战

    随着互联网的发展,越来越多的商家开始将自己的商品数据通过API接口对外开放,以供其他开发者使用。这些API接口可以提供丰富的商品数据,包括商品名称、价格、库存、图片等信息。对于爬虫开发者来说,通过调用这些API接口,可以更加便捷地获取商品数据,避免了爬取

    2024年02月07日
    浏览(38)
  • 数据仓库DW-理论知识储备

    数据仓库具备 采集数据、存储数据、分析和计算 的功能,最后得出一些有用的数据,一些目标数据来使用。 采集来自不同源的数据,然后对这些数据进行分析和计算得出一些有用的指标,提供数据决策支持。 数据的来源有:系统的业务数据、用户的行为数据、爬虫数据等。

    2024年02月07日
    浏览(39)
  • Python爬虫 | 利用python爬虫获取想要搜索的数据(某du)

    这篇文章主要介绍了利用Python爬虫采集想要搜索的信息(利用某du的接口实现)并且处理掉它的反爬手段,文中示例代码很详细,具有一定的学习价值,感兴趣的小伙伴快来一起学习吧。 大家在日常生活中经常需要查找不同的事物的相关信息,今天我们利用python来实现这一个

    2024年02月01日
    浏览(37)
  • 网络爬虫逆向(企名片,创业项目数据获取)

    目标网址:https://www.qimingpian.com/finosda/project/pinvestment 抓取目标: 创业项目名称 业务 行业领域 地区 投资轮次 投资金额 投资方 热度 难点: 数据被加密,无法在网络中搜索数据,无法定位数据源 同样复制一串文字(例如: 新中式点心潮牌)在开发者工具网络中进行搜索。

    2024年02月15日
    浏览(36)
  • 爬虫篇-小程序后台数据获取【附源码】

      鉴于网上以及视频教材很多都是直接用cookie写到了headers中,这样验证是会过期的,我这里直接模拟浏览器请求。   内部系统小程序后台爬虫应用,因此没有账号的可以学习思路,有账号的可以考虑实战爬虫。   首先会分析整个小程序从一开始登陆页面请求分析到数

    2024年02月09日
    浏览(33)
  • 爬虫实战:从HTTP请求获取数据解析社区

    在过去的实践中,我们通常通过爬取HTML网页来解析并提取所需数据,然而这只是一种方法。另一种更为直接的方式是通过发送HTTP请求来获取数据。考虑到大多数常见服务商的数据都是通过HTTP接口封装的,因此我们今天的讨论主题是如何通过调用接口来获取所需数据。 目前来

    2024年03月20日
    浏览(46)
  • 大宗商品贸易集团数据治理实践,夯实数字基座 | 数字化标杆

    某大型央企是首批全国供应链创新与应用示范企业,在“十四五”规划期内以聚焦供应链管理核心主业作为主要战略发展方向。供应链运营管理以大宗商品贸易为主,其交易往往具有交易量巨大、交易环节复杂、风险交易难识别、风险客商难管控等痛点。 随着集团数字化转型

    2024年02月05日
    浏览(47)
  • 爬虫获取电影数据----以沈腾参演电影为例

    1.1 沈腾参演电影数据获取 1.2 电影数据可视化分析 大家好✨,这里是bio🦖。今天为大家带来的是数据获取的一种方法,网络爬虫(Web Crawler)。是一种自动化程序,用于在互联网上获取信息、抓取网页内容并进行数据收集。网络爬虫通过访问网页的链接,并从中提取信息和数

    2024年02月14日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包