数据集笔记:Pems 自行下载数据+python处理

这篇具有很好参考价值的文章主要介绍了数据集笔记:Pems 自行下载数据+python处理。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

以下载District 4的各station每5分钟的车速为例

1 PEMS网站下载数据

pems数据集下载,数据集,笔记

点击红色的

pems数据集下载,数据集,笔记

选择需要的station和区域,点击search,就是对应的数据,点击数据即可下载 (这个是station每5分钟的速度数据)

 2 pems 速度数据

2.1 每一列的意义

Timestamp

间隔开始的日期和时间。例如,08:00:00的时间表明聚合包含在08:00:00到08:04:59之间收集的测量数据。

请注意,五分钟聚合的秒值总是0。格式为MM/DD/YYYY HH24:MI:SS。

Station 独特的车站标识符。
District 区号
Freeway 高速公路号
Direction

行驶方向

东南西北 ESWN

车道类型

表示车道类型的字符串。

可能的值(及其含义)为:

  • CD(收集/分配)
  • CH(传统公路)
  • FF(高速公路-高速公路连接)
  • FR(下匝道)
  • HV(高占用车道)
  • ML(主线)
  • OR(上匝道)
Station Length 车站覆盖的路段长度,单位为英里/公里。
Samples 所有车道接收的样本总数
% Observed 在这个位置有observation的车道的百分比
Total Flow 所有车道5分钟内流量总和。
Avg Occupancy 5分钟内所有车道的平均占用率,以0到1之间的小数表示
Avg Speed 所有车道5分钟内的流量加权平均速度。如果流量为0,则为5分钟车速的数学平均值
Lane N Samples 车道N收到的良好样本数。
Lane N Flow 5分钟内车道N的总流量。
Lane N Avg Occ 5分钟内车道N的平均占有率
Lane N
Avg Speed
5分钟内车道N的平均速度
Lane N
Observed
车道N是否有观测值(1代表有,0代表没有)

2.2 python 读取PEMS

import numpy as np
import pandas as pd


#设置header
new_headers = ['Timestamp', 'Station', 'District', 'Freeway', 'Direction',
               'Lane Type', 'Station Length', 'Samples', '%Observed',
               'Total Flow', 'Avg Occupancy', 'Avg Speed']
for i in range(1, (pems04.shape[1]-12)//5+1):
    new_headers.extend([
        f'Lane {i} Samples', f'Lane {i} Flow', f'Lane {i} Avg Occ',
        f'Lane {i} Avg Speed', f'Lane {i} Observed'
    ])


pems04=pd.read_csv('d04_text_station_5min_2023_01_02.txt',names=new_headers)
pems04

pems数据集下载,数据集,笔记

 3 pems station 元数据

3.1 每一列的意义

ID station 的标识
Freeway 高速公路编号
Freeway Direction 表示高速公路方向的字符串
County Identifier 县id
City 城市
State Postmile 州公里标
Absolute Postmile 绝对公里标
Latitude,Longitude 经纬度
Length 长度
Type

类型

可能的值(及其含义)为:

  • CD(收集/分配)
  • CH(传统公路)
  • FF(高速公路-高速公路连接)
  • FR(下匝道)
  • HV(高占用车道)
  • ML(主线)
  • OR(上匝道)
Lanes 车道数
Name 名字
User IDs 用户输入的字符串标识符

3.2 python读取

import numpy as np
import pandas as pd

pems04=pd.read_csv('d04_text_meta_2022_12_13.txt',delimiter='\t')
pems04

pems数据集下载,数据集,笔记文章来源地址https://www.toymoban.com/news/detail-847191.html

到了这里,关于数据集笔记:Pems 自行下载数据+python处理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • android studio “run app”运行app 自行启动失败处理

    1.检查是否因为代码bug导致直接运行崩溃 2.检查是否配置 3.检查studio Edit Configurations 启动配置选项配置(Default Activity)    4.点击studio导航栏\\\"File\\\"  选择Clear cache and restart Android Studio 5.检查你的Android虚拟设备(AVD)设置:如果您正在使用一个模拟器运行您的应用程序,确保AVD设置正

    2024年04月09日
    浏览(45)
  • 【2023 年第二届钉钉杯大学生大数据挑战赛】 初赛 B:美国纽约公共自行车使用量预测分析 问题一Python代码分析

    Citi Bike是纽约市在2013年启动的一项自行车共享出行计划,由“花旗银行”(Citi Bank)赞助并取名为“花旗单车”(Citi Bike)。在曼哈顿,布鲁克林,皇后区和泽西市有8,000辆自行车和500个车站。为纽约的居民和游客提供一种 方便快捷,并且省钱的自行车出行方式。人们随处都能借

    2024年02月17日
    浏览(52)
  • 【2023 年第二届钉钉杯大学生大数据挑战赛】 初赛 B:美国纽约公共自行车使用量预测分析 问题三时间序列预测Python代码分析

    【2023 年第二届钉钉杯大学生大数据挑战赛】 初赛 B:美国纽约公共自行车使用量预测分析 问题一Python代码分析 【2023 年第二届钉钉杯大学生大数据挑战赛】 初赛 B:美国纽约公共自行车使用量预测分析 问题二Python代码分析 【2023 年第二届钉钉杯大学生大数据挑战赛】 初赛

    2024年02月15日
    浏览(68)
  • Python-pdfplumber读取PDF所有内容并自行提取指定内容

    🌸 欢迎来到Python办公自动化专栏—Python处理办公问题,解放您的双手 🏳️‍🌈 博客主页:一晌小贪欢的博客主页 👍 该系列文章专栏:Python办公自动化专栏 文章作者技术和水平有限,如果文中出现错误,希望大家能指正🙏 ❤️ 欢迎各位佬关注! ❤️ 最近接到一个需求

    2024年02月15日
    浏览(63)
  • Typora打造最适合编程笔记的精美主题(浅色版和修改后的深色版),可自行修改喜欢的样式。

    转载自 豫冬川:Typora打造最适合编程笔记的精美主题(浅色版和修改后的深色版),可自行修改喜欢的样式。 Typora是非常优秀的Markdown编辑器,可惜自带的样式比较简陋。经过多种typora主题的选择,感觉少数派风格最好,@张晋基于少数派风格的主题进行了一些修改。我觉得

    2023年04月18日
    浏览(32)
  • Python实现批量图片下载及去重处理

    在爬虫应用开发中,常常需要批量下载图片,并对图片进行去重处理。Python 是一种非常流行的编程语言,也是开发爬虫应用的首选,本文将介绍如何使用 Python 下载图片,并对下载的图片进行去重处理。 首先,我们需要使用 Python 中的 Requests 库来下载图片,并使用 OS 库来创

    2023年04月17日
    浏览(43)
  • MODIS NDVI 及EVI数据下载及处理

    Terra 中分辨率成像光谱仪 (MODIS) 植被指数 (MOD13Q1) 第 6 版数据每 16 天生成一次,空间分辨率为 250 米 (m),作为 3 级产品。MOD13Q1 产品提供两个主要植被层。第一个是归一化植被指数 (NDVI),它被称为现有国家海洋和大气管理局高级甚高分辨率辐射计 (NOAA-AVHRR) 导出的 NDVI 的连续

    2024年04月23日
    浏览(33)
  • 【python学习笔记】:实现网页视频自动下载并保存

    如何使用python爬虫实现网页视频自动下载并保存: 使用python爬取页面,然后自动下载视频,但是这样会有一个问题,我并不是需要所有视频,有些是垃圾视频不需要下载,python似乎还没法做到识别我对哪些视频是有价值的,所以这一步人工绕不开,我选择直接把目标视频的详

    2024年02月11日
    浏览(49)
  • Python 图片处理笔记

    cv2.medianBlur  img = cv2.medianBlur(image, 5) #中值滤波,去除黑色边际中可能含有的噪声干扰 #medianBlur( InputArray src, OutputArray dst, int ksize ); #这里的src代表输入图像,dst代表输出图像,ksize 必须是正数且为奇数 #该函数使用中值滤波器来平滑图像,可以消除图像中的小点,该值越大,则

    2024年02月07日
    浏览(55)
  • Python学习笔记:Requests库安装、通过url下载文件

    在pipy或者github下载,通常是个zip,解压缩后在路径输入cmd,并运行以下代码  安装完成后,输入python再输入import requests得到可以判断时候完成安装  2.通过url下载文件 使用的是urllib模块

    2024年02月10日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包