如何做数据清洗?

这篇具有很好参考价值的文章主要介绍了如何做数据清洗?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

如何做数据清洗?

一.预处理阶段

预处理阶段主要做两件事情:

一是将数据导入处理工具。通常来说,建议使用数据库,单机跑数搭建MySQL环境即可。如果数据量大(千万级以上),可以使用文本文件存储+python操作的方式

而是看数据。这里包含两个部分:一是看元数据,包括字段解释,数据来源,代码表等等一切描述数据的信息;二是抽取一部分数据,使用人工查看方式,对数据本身有一个直观的了解,并且初步发现一些问题,为之后处理做准备

第一步:缺失值清洗

缺失值是最常见的数据问题,处理缺失值也有很多方法,我建议按照以下四个步骤进行:

1.确定缺失值范围:对每个字段都计算其缺失值比例,然后按照缺失比例和字段重要性,分别制定侧列,可用下图表示:

如何做数据清洗?

2.去除不需要的字段:这一步很简单,直接删掉即可,但强烈建议清洗每做一步都备份一下,或者在小规模数据上试验成功在处理全量数据,不然删错了会追悔莫及(写SQL的时候delete一定要配where)

3.填充缺失内容:某些缺失值可以进行填充,方法有以下三种:

以业务知识或经验推测填充缺失值

以同一指标的计算结果(均值,中位数,众数等)填充缺失值

以不同指标的计算结果填充缺失值

前两种方法比较好理解,第三种方法,举个最简单的例子:年龄字段确实,但是有屏蔽后六位的身份证号

4.重新取数:如果某些指标非常重要又缺失率高,那就需要和取数人数或业务人员了解,是否有其他渠道可以取到相关数据

第二步:格式内容清洗

如果数据是由系统日志而来,那么通常在格式和内容方面,会与元数据的描述一致。而如果数据是由人工收集或用户填写而来,则有很大可能性在格式和内容上存在一些问题,简单来说,格式内容问题有以下几类:

1.时间,日期,数值,全半角等显示格式不一致

这种问题通常与输入端有关,在整合多来源数据时也有可能遇到,将其处理成一致的某种格式即可

2.内容中有不该存在的字符

某些内容可能只包括一部分字符,比如身份证号是数字+字母,中国人姓名是汉字。最典型的就是头,尾,中间的空格,也可能出现姓名中存在数字符号,身份证号中出现汉字等问题。这种情况下,需要以半自动校验半人工方式来找出可能存在的问题,并去除不需要的字符

3.内容与该字段应有内容不符

姓名写了性别,身份证号写了手机号等等,均属这种问题。但该问题特殊性在于:并不能简单地以删除来处理,因为成因有可能是人工填写错误,也有可能是前段没有校验,还有可能是导入数据时部分或全部存在列没有对齐的问题,因此要详细识别问题类型

格式内容问题是比较细节的问题,但很多分析失误都是栽在这个坑上,比如跨表关联或vlookup失败(多个空格导致工具认为“陈丹怡”和“陈 丹怡”不是一个人),统计值不全(数字里掺个字母当然求和时结果有问题),模型输出失败或效果不好(数据对错列了,把日期和年龄混了)因此,请各位务必注意这部分清晰工作,尤其是在处理的数据是人工收集而来,或者你确定产品前端校验设计不太好的时候

第三步:逻辑错误清晰

这部分的工作是去掉一些使用简单逻辑推理就可以直接发现问题的数据,防止分析结果走偏。主要包含以下几个步骤:

1.去重

有的分析师喜欢把去重放在第一步,但我强烈建议把去重放在格式内容清洗之后,原因已经说过了(多个空格导致工具认为“陈丹怡”和“陈 丹怡”不是一个人,去重失败)而且,并不是所有重复都能这么简单的去掉

我曾经做过电话销售相关的数据分析,发现销售们为了抢单剑指无所不用其极。举例,一家公司叫做“ABC管家有限公司”,在销售A手里,然后销售B为了抢这个客户,在系统里录入一个“ ABC管家有限公司”。你看,不仔细看你都看不出两者的区别,而且就算看出来了,你能保证没有“ABC管家有限公司 ”这种东西存在么?这种时候,要么去抱RD大腿,要么要求人家给你写模糊匹配算法,要么肉眼看吧

2.去除不合理值

一句话就能说清楚:有人填表的时候瞎填,年龄200岁,年收入1000000万,这种的就要么删掉,要么按缺失值处理。这种值如何发现?提示:可用但不限于箱型图

3.修正矛盾内容

有些字段是可以互相验证的,举例:身份证号是1101031980XXXXXXXX,然后年龄填18岁,我们虽然理解人家永远18的想法,但得知真实年龄可以给用户提供更好的服务。在这种时候,需要根据字段的数据来源,来判断哪个字段提供的信息更为可靠,去除或重构不可靠的字段

逻辑错误除了以上列举的情况,还有很多未列举的情况,在实际操作中要酌情处理。另外,这一步骤在之后的数据分析建模过程中有可能重复,因为即时问题很简单,也并非所有问题都能够一次找出,我们能做的是使用工具和方法,尽量减少问题出现的可能性,使分析过程更为高效

第四步:非需求数据清洗

这一步说起来非常简单:把不要的字段删了

但实际操作起来,有很多问题,例如:

  • 把看上去不需要但实际上对业务很重要的字段删了
  • 某个字段觉得有用,但又没想好怎么用,不知道是否该删
  • 一时看走眼,删错字段了

前两种情况我给的建议是:如果数据量没有大到不删字段就没办法处理的程度,那么能不删的字段尽量不删。第三种情况,请勤备份数据

第五步:关联性验证

如果你的数据有多个来源,那么有必要进行关联性验证。例如,你有汽车的线下购买信息,也有电话客服问卷信息,两者通过姓名和手机号关联,那么要看一下,同一个人线下登记的车辆信息和线上问卷出来的车辆信息是不是同一辆,如果不是(别笑,业务流程设计不好是有可能出现这种问题的)那么需要调整或去除数据

严格意义上来说,这已经脱离数据清洗的范畴了,而且关联数据变动在数据库模型中就应该涉及。但我还是希望提醒大家,多个来源的数据整合是非常复杂的工作,一定要注意数据之间的关联性,尽量在分析过程中不要出现数据之间互相矛盾,而你却毫无觉察的情况

二.准备工作

拿到数据表之后,先做这些准备工作,方便之后的数据清洗

1.给每一个sheet页命名,方便寻找

2.给每一个工作表加一列行号,方便后面改为原顺序

3.检验每一列的格式,做到每一列格式统一

4.做数据源备份,防止处理错误需要参考原数据

5.删除不必要的空行,空列

三.步骤

1.统一数值口径

例如我们统计销售任务指标,有时用合同金额有时用回款金额,口径经常不统一。统计起来就很麻烦。所以将不规范的数值改为规范这一步不可或缺

2.删掉多余的空格

原始数据如果夹杂着大量的空格,可能会在我们筛选数据或统计时带来一定麻烦。如何去掉多余的空格,仅在字符间保留一个空格

  • 手动删除。如果只有三五个空格,这可能是最快的方式
  • 函数法

在做数据清洗时,经常要去除数据两端的空格,那么TRIM, LIRIM, RTRIM这三个函数就可以帮到你了

TRIM函数:主要是用来去除单元格内容前后的空格,但不会去除字符之间的空格。表达式:=TRIM(文本)

LIRIM函数:用来去除单元格内容左边的空格

RTRIM函数:用来去除单元格内容右边的空格

3.字段去重

强烈建议把去重放在去除空格之后,因为多个空格导致工具认为“顾纳”和“顾 纳”不是一个人,去重失败

按照“数据”-“删除重复项”-选择重复列步骤执行即可(单选一列表示此列数据重复即删除,多选表示多个字段都重复才删除)

4.填补缺失值

由于人工录入或者数据爬虫等多方面的原因,会出现缺失值的情况,这就需要我们寻找漏网之“数据”,填充空缺值

如何统计有多少缺失值?

先看ID唯一列有多少行数据,参考Excel右下角的计数功能,对比就可以知道其他列缺失了多少数据

如何定位到所有缺失值?

Ctrl+G,选择定位条件,然后选择空值

缺失值处理方法:

  • 人工补全。适合数据量少的情况
  • 删除。适用于样本较大的情况,样本较小时,可能会影响最终的分析结果
  • 根据数据的分布情况,可以采用均值,中位数,或者众数进行数据填充

数据均匀,均值法填充;数据分布倾斜,中位数填充

  • 用模型计算值来代替缺失值

回归:基于完整的数据集,建立回归方程。将已知属性值代入方程来估计未知属性值,以估计值来进行空值的填充

极大似然估计:基于缺失类型为随机缺失的条件下,假设模型对于完整的样本是正确的,通过观测数据的边际分布可以对缺失数据进行极大似然估计

随机插补法:从总体中随机抽取某几个样本代替缺失样本

多重填补法:包含m个插补值的向量代替每一个缺失值的过程,要求m大于等于20.m个完整数据集合能从插补向量中创建

5.异常值处理

异常值:指一组测定值中与平均值的偏差超过两倍标准差的测定值

对于异常值处理,需要具体情况具体分析,一般而言,异常值的处理方法常用以下3种:文章来源地址https://www.toymoban.com/news/detail-454029.html

  • 不处理
  • 用平均值替代:利用平均值来代替异常值,损失信息小,简单高效
  • 视为缺失值:将异常值视为缺失值来处理,采用处理缺失值的方法来处理异常值

到了这里,关于如何做数据清洗?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Spark中数据预处理和清洗的方法(python)

    在Spark中进行数据分析,数据预处理和清洗是必不可少的步骤,以下是一些常用的方法: 去除重复行 去除空值 替换空值 更改数据类型 分割列 合并列 过滤行 去除重复行可以使用DataFrame的 dropDuplicates() 方法,例如: 去除空值可以使用DataFrame的 dropna() 方法,例如: 可以通过指

    2024年02月11日
    浏览(59)
  • R语言 | GEO表达矩阵的数据清洗与预处理

    目录 1.去除/// 2.去除重复的基因名 3.表达矩阵自动log2化 4.矫正差异 表达量矩阵的数据清洗应该在 注释完成之后 进行,并且下列操作最好按顺序进行 如下图的表格所示,同一个探针ID对应的gene有多个,用///分隔着,而我们想获得一个探针ID只对应一个基因symbol的表格。 表达

    2024年02月13日
    浏览(42)
  • 【数据预处理】基于Kettle的字符串数据清洗、Kettle的字段清洗、Kettle的使用参照表集成数据

    🚀 本文选自专栏:AI领域专栏 从基础到实践,深入了解算法、案例和最新趋势。无论你是初学者还是经验丰富的数据科学家,通过案例和项目实践,掌握核心概念和实用技能。每篇案例都包含代码实例,详细讲解供大家学习。 📌📌📌本专栏

    2024年02月03日
    浏览(56)
  • 利用Python进行数据清洗与预处理:Pandas的高级用法【第147篇—Pandas的高级用法】

    前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。【点击进入巨牛的人工智能学习网站】。 在数据科学和机器学习领域,数据清洗和预处理是至关重要的步骤。Pandas库作为Python中最受欢迎的数据处理工具之一,提供了强大的功能来处

    2024年04月09日
    浏览(108)
  • 如何利用 ChatGPT 进行自动数据清理和预处理

    推荐:使用 NSDT场景编辑器助你快速搭建可二次编辑的3D应用场景 ChatGPT 已经成为一把可用于多种应用的瑞士军刀,并且有大量的空间将 ChatGPT 集成到数据科学工作流程中。 如果您曾经在真实数据集上训练过机器学习模型,您就会知道数据清理和预处理的步骤对于构建可靠的

    2024年02月12日
    浏览(49)
  • 如何基于香橙派AIpro对视频/图像数据进行预处理

    本文分享自华为云社区《如何基于香橙派AIpro对视频/图像数据进行预处理》,作者: 昇腾CANN。 受网络结构和训练方式等因素的影响,绝大多数神经网络模型对输入数据都有格式上的限制。在计算机视觉领域,这个限制大多体现在图像的尺寸、色域、归一化参数等。如果源图

    2024年04月22日
    浏览(53)
  • 数据预处理的人工智能与深度学习:如何提高模型性能

    数据预处理是人工智能(AI)和深度学习(DL)领域中的一个关键环节,它涉及到数据清洗、数据转换、数据归一化、数据增强等多种操作,以提高模型性能。在过去的几年里,随着数据规模的增加和复杂性的提高,数据预处理的重要性得到了广泛认识。本文将从以下几个方面进行

    2024年02月19日
    浏览(79)
  • 数据采集与预处理01: 项目1 数据采集与预处理准备

    数据采集:足够的数据量是企业大数据战略建设的基础,因此数据采集成为大数据分析的前站。数据采集是大数据价值挖掘中重要的一环,其后的分析挖掘都建立在数据采集的基础上。大数据技术的意义确实不在于掌握规模庞大的数据信息,而在于对这些数据进行智能处理,

    2024年01月25日
    浏览(65)
  • 数据预处理matlab matlab数据的获取、预处理、统计、可视化、降维

    1.1 从Excel中获取 使用readtable() 例1: 使用 spreadsheetImportOptions(Name,Value) 初步确定导入信息, 再用 opts.Name=Value 的格式添加。 例2: 先初始化 spreadsheetImportOptions 对象, 再用 opts.Name=Value 的格式逐个添加。 例3: 将导入信息存到变量里, 再使用 spreadsheetImportOptions(Name,Value)

    2024年02月15日
    浏览(56)
  • 大数据采集技术与预处理学习一:大数据概念、数据预处理、网络数据采集

    目录 大数据概念: 1.数据采集过程中会采集哪些类型的数据? 2.非结构化数据采集的特点是什么? 3.请阐述传统的数据采集与大数据采集的区别? ​​​​​​​ ​​​​​​​4.大数据采集的数据源有哪些?针对不同的数据源,我们可以采用哪些不同的方法和工具? 数据

    2024年01月25日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包