盘点数据处理工具,手把手教你做数据清洗和转换

原始数据本身没有用。为了使它实际有用,你需要准备它。 2021-04-06 22:48:41 数据集工具Python 详解SQL中连续N天都出现的问题 在我们日常统计过程中,像这种要统计连续N天都出现的问题比较普遍。比如统计连续三天销售额大于10万的是哪几天,连续一周客流量大于100的是哪几天等等。 2021-04-06 11:50:30 SQL数据统计 MySQL不香吗,为啥还要Elasticsearch? 今天我想和大家聊一聊实时索引的构建之道,来自我司 PB 级索引数据的实战经验,相信对大家肯定有帮助。 2021-04-06 10:48:52 MySQLElasticsear数据库 组织应该采用数据湖的7个原因 译文 数据仓库长期以来一直是管理大数据的标准方法,但是数据湖是否更适合组织的需要?其答案是肯定的。 2021-04-06 08:00:00 数据湖存储技术 Redis 6.X Cluster 集群搭建 码哥带大家完成在 CentOS 7 中安装 Redis 6.x 教程。在学习 Redis Cluster 集群之前,我们需要先搭建一套集群环境。机器有限,实现目标是一台机器上搭建 6 个节点,构成一个三主三从集群模式。 2021-04-06 06:04:36 Redis 6.X C集群搭建操作系统 4 月数据库流行度排行榜发布!暗流涌动,云数据库或将异军突起 只会写代码的是码农;学好数据库,基本能混口饭吃;在此基础上再学好操作系统和计算机网络,就能当一个不错的程序员。 2021-04-05 23:10:37 数据库开发软件 最大规模技术重建:数据库连接从15000个到100个以下 作为一家管理自己服务器和硬件的云提供商,我们面临着许多其他初创公司在云计算新时代没有遇到的复杂问题。这些艰难的处境最终使得我们不得不在生存初期做出权衡。任何一家快速发展的公司都知道,早期做出的技术决策往往会在日后赶上你。 2021-04-03 23:21:54 数据库服务器技术 统治50年:为什么SQL在如今仍然很重要? SQL是如今最普遍使用的编程语言之一,我们不该忘记它悠久的历史。它的旅程始于现代计算的黎明,在两位图灵奖得主的努力下焕发生机。 2021-04-03 12:39:20 SQL数据库编程语言 4 月数据库流行度排行榜:三巨头分数暴跌 DB-Engines 4 月份流行度排行已更新(基于 3 月份的整体数据变化)。从总榜来看,前十数据库的排名和上个月保持一致。虽然排名没有变动,但单个数据库的分数却变化不少。

原始数据本身没有用。为了使它实际有用,你需要准备它。

01 了解数据集

数据准备的关键和重复阶段是数据探索。一组因为太大而无法由人工手动读取、检查和编辑每个值的数据,仍需要验证其质量和适用性,然后才可以将其委托给一个值得花费时间和计算的模型。

[[391503]]

与将大型数据集的样本转储到电子表格程序中的方法一样简单,只需查看每列中出现的值的类型或范围,即可识别诸如不负责任的默认值之类的错误(例如,在没有测量值的情况下,使用零而不是NULL)或不可能的范围或不兼容的合并(数据似乎来自多个来源,每个来源中使用了不同的单位。例如,华氏度与摄氏度)。

数据分析工具非常丰富。当数据集太大而无法在电子表格程序中打开时,Python脚本或像RStudio这样的应用程序具有可视化、汇总或报告数据的强大功能。使用你熟悉的任何方法,至少要确定不同属性值的格式和一般分布。

02 数据处理工具

在能够使用数据集之前,有许多工具可以用于清洗、处理和了解数据集。Python是这方面的事实标准,它有很多工具来理解和处理数据。

Matplotlib之类的包,通常可以非常容易地生成用于可视化检查的数据图表。

Pillow提供各种处理、转换和操作图像的功能。

Python有一个用于执行统计的内置程序包,如果需要更多功能的话,NumPy也有。

Python还具有广泛的内置和第三方支持内容,可处理你将要遇到的几乎所有文件格式,包括CSV、JSON、YAML、XML和HTML,以及更深奥的格式(如TOML或INI文件)。

如果这些都不起作用,则有一个值得搜索的软件包索引器,可以查看是否有解决你的问题的方法。或者,只需搜索“我想用Python做事情”,大多数情况下,你会发现某人遇到了相同的问题,并为此提供了解决方案,或者至少提供了一些可以查看的指引。

如果你不喜欢Python,那么几乎所有选择的编程语言都具有类似的工具和功能。我们之所以喜欢Python,是因为这些工作已经为你完成了,而且有很多例子可以作为起点。Python在这方面没有什么神奇之处,但它是最受欢迎的选择,所以我们提倡坚持使用主流工具。

另一个不错的选择是电子表格程序,例如Excel、Numbers或Google Sheets。它们经常受到指责,因为在这些程序中进行数据准备可能很麻烦,但在需要使用Python(或你选择的其他工具)之前,你可以使用它们非常快速地获得大量有用的洞见和准备。作为系统附赠的工具,你基本上肯定已经安装了其中一个,并且可以在你的机器上运行。

最后,不要害怕跳出框架思考——一些像压缩数据集这样简单的东西,甚至不需要看数据集内部就能大致了解数据集的熵大小。如果一个数据集压缩得非常好,而来自相同来源的另一个数据集压缩得不那么好,那么第二个数据集的数据的熵可能比第一个数据集的大。

图像数据集不是那么容易观察到的,但绝对值得花时间浏览一下图像的总体质量,以及图像使用了哪些裁剪方法。像Turi Create这样的可视化功能对于了解数据非常有用。图3-1显示了一个例子。

盘点数据处理工具,手把手教你做数据清洗和转换

▲图3-1 通过Turi Create了解你的数据

03 清洗数据

在了解数据集的过程中,你可能会遇到一些错误。记录数据可能会产生错误。需要检查的错误有以下几类:

  • 一致值错误
  • 单值错误
  • 缺失值

一致值错误包括可能导致整列或一组值不准确的情况,例如,使用仪器记录某个被统一量校准错误的数据,从产生额外热量的物体旁边测量温度,使用未提前归零的天平称重,等等。这还包括来自不同来源的数据未经转换就被不当合并的情况:简单压缩一组来自美国和一组来自英国的数据,现在系统认为100摄氏度完全合理。

单值错误用于描述离群值或不一致的错误校准,仅在少数情况下导致不准确或完全不合逻辑的值。可能出现的情况,如传感器超载一天,产生的值比理论可能的高1000%(应该是相当明显的)。

当用于记录数据的方法出现问题,或者数据集在其生命周期的某个时刻经历了某种畸形的转换时,可能会出现缺失值。这些可能是简单的nil或NULL值,或者一些不太有用的值,例如字符串"NONE"或默认值0。有些甚至可能只是无意义的字符,什么都有可能出现。

如果可以识别出一致误差,那么这通常可以通过按一致误差值缩放或转换整个值集来纠正。单值错误和缺失值要求你要么猜测需要使用某种可行方法替换的值,要么完全删除行或者观察值以防止出现误差。

你可以通过以下方法来猜测该值:获取该列中所有其他值的平均值;使用该列中与缺失值最接近的观察值;使用一些使用其他属性知识的特定于应用程序的方法。

盘点数据处理工具,手把手教你做数据清洗和转换

04 转换数据

在使用数据之前进行转换有两个主要原因:为了满足要使用的算法的格式要求;使用新的推断属性改进或扩展当前数据。对于这两种目的,通常有三种数据转换:

1. 归一化(normalization)

一种用于数值数据的方法,它将上界和下界绑定到一个数值范围上,使它们更容易处理。

这方面的一个例子是对数值数据的观察值需要与不同的度量进行比较。如果你试图根据鱼的长度、体重、年龄和失去眼睛的数量来评估不同鱼的健康状况,大概每个人都会同意用不同的标准来比较两条鱼(例如,一只眼睛与一年的鱼,或者一厘米长度的相比较)。如果用同样的标准来比较,则会得出不同的结果。

归一为正数值很简单:

盘点数据处理工具,手把手教你做数据清洗和转换

2. 泛化(generalization)

一种将特定值替换为更高级别的概念,以更好地进行群体观察的方法。

当记录某些属性的方法比需要的更精确时,通常会发生这种情况。例如,如果你具有某人运动的GPS统计信息,则可以将纬度和经度归纳为一个地址,从而防止系统将每一个小运动都视为位置变化。或者,将数值测量值转换为人类群体,这意味着相关因素可能不是将个人的身高测量值以毫米为单位,而是将其分为低于、接近或高于平均的身高。

3. 聚合(aggregation)

对某些复杂属性进行总结以使分析更有效的一种方法。

例如,可以从文本中提取关键字(甚至是单词频率),而不是分析文本的段落(Attribute: Text,Classification: Class),只显示与所给出的分类最相关或最独特的方面。

在这些步骤之前、之间或之后,可能会出现不同类型的数据转换,数据可能被更改、扩展或缩减:

  • 特征构建(feature construction)

一种创建新属性的方法,通常通过推理或组合已有的其他值来实现。

这方面的一个例子是泛化或聚合,其中原始值也被保留,或者更常见的是,当存在两个或多个值时(或允许发现第三个值)。例如,如果你有一家公司的名称和经营所在国,可以查一下它的商业登记号;如果你有某人的身高和体重,可以构建他们的BMI。

  • 数据规约(data reduction)

一种删除某些属性的方法,这些属性可能与另一个属性相关,也可能与你试图解决的问题无关。

例如,如果你有某人的地址、邮编和区号,这些信息中至少有一条是多余的。也许—就像在特征构建的例子中那样—你由于一些算法的原因想要同时分析两者,但这是不可能的。两个或多个属性之间的高度相关性表明,它们可能在分析中导致错误,并可能被删除。

05 验证数据集的适应性

到了这一步,你应该花更多的时间仔细地看看你试图解决的问题和打算用于任务的数据集。在AI应用程序之前的数据分析世界中,可能没有你想要的那么严格的规则,但你通常会知道一个解决方案是否可行,一个数据集是否能讲述你想要的故事。

相信这个小小的声音,因为如果你回头看,会发现浪费的工作是有价值的。

再次探索你的数据。浏览并可视化它,用少量的数据子集测试你的解决方案—做你需要做的任何事情。如果感觉还是正确的,那就继续前进。

©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经

(0)
打赏 微信扫码打赏 微信扫码打赏 支付宝扫码打赏 支付宝扫码打赏
清一色的头像清一色管理团队
上一篇 2023年5月6日 13:44
下一篇 2023年5月6日 13:44

相关推荐

发表评论

登录后才能评论

联系我们

在线咨询:1643011589-QQbutton

手机:13798586780

QQ/微信:1074760229

QQ群:551893940

工作时间:工作日9:00-18:00,节假日休息

关注微信