值得与Python结合使用的五个新颖的数据科学工具

译文
开发 前端
你已经在使用NumPy、Pandas和scikit-learn了吗?本文介绍了五个功能更强大的Python数据科学工具,有望在您的工具包中占有一席之地。

译者 | 布加迪

审校 | 重楼

Python庞大的数据科学工具生态系统对用户有很大的吸引力。生态系统如此庞大而丰富的唯一缺点是,有时最好的工具可能会被忽视。

下面介绍了其中几款面向Python优秀的或不太知名的数据科学项目。Polars等一些项目得到了比以前更多的关注,但依然值得更广泛的关注ConnectorX等其他工具则是隐藏的瑰宝。

1.ConnectorX

部分数据位于数据库的某个地方,但计算操作通常在数据库外进行。为实际工作从数据库倒腾数据可能会减慢速度。ConnectorX数据从数据库加载到Python中的许多常见数据整理工具中,并通过尽量减少要完成的工作量来保持速度。

后面讨论的Polars一样ConnectorX在其核心使用Rust库。这便于优化比如说能够在分区的同时从数据源加载数据。PostgreSQL中的数据可以通过指定分区列来加载。

除了PostgreSQL, ConnectorX还支持从MySQL/MariaDBSQLiteAmazon RedshiftMicrosoft SQL ServerAzure SQL以及Oracle读取数据。结果可以汇集到PandasPyArrow或者通过PyArrow汇集到Modin、Dask或Polars

2.DuckDB

使用Python的数据科学人员应该了解SQLite,这是一种用Python打包的小巧、但功能强大且快速的关系数据库。由于它作为进程内库来运行不是作为单独的应用程序运行,因此属于轻量级,且响应迅速。

DuckDB有点像有人回答这个问题:“如果我们设计面向OLAP的SQLite会怎么样?”与其他OLAP数据库引擎一样,它使用列式数据存储,针对长时间运行的分析查询工作负载进行了优化。但是它提供了您期望从传统数据库获得的所有功能,比如ACID事务。而且没有单独的软件套件需要配置您使用单单一个pip install命令,即可在Python环境中让它运行起来

DuckDB可以直接摄取采用CSV、JSON或Parquet格式的数据。为了提高效率,还可以根据键(比如按年和按月)将生成的数据库划分为多个物理文件。查询起来与任何其他基于SQL的关系数据库似,但拥有额外的内置特性,比如能够获取数据的随机样本或构造窗口函数。

DuckDB一小批实用的扩展包括全文搜索Excel导入/导出直接连接到SQLite和PostgreSQLParquet文件导出以及支持许多常见的地理空间数据格式和类型。

3.Optimus

最繁琐的工作之一就是清理和准备数据,用于以DataFrame为中心的项目。Optimus是一种一体化工具集,可用于加载、探索清理数据,以及将数据写回众多数据源

Optimus可以使用Pandas、Dask、CUDF及Dask + CUDF、Vaex或Spark作为层数据引擎。数据可以从Arrow、Parquet、Excel、各种常见的数据库源或平面文件格式(比如CSV和JSON加载,并保存成这些格式

数据操作API类似Pandas,但添加了.rows()和.cols()访问器,以便易于执行对数据框排序、按列值筛选、根据标准更改数据或根据某些标准缩小操作范围之类的操作。Optimus还随带处理器,用于处理常见的实际数据类型,比如电子邮件地址和URL

Optimus可能存在一个问题是,它仍在积极开发中,但上一次正式发布是在2020年。这意味着它可能不像堆栈中的其他组件那样是最新的。

4.Polars

如果您花费大量时间来处理DataFrame,并且对Pandas的性能限制感到沮丧,不妨使用Polars。这个面向Python的DataFrame库提供了类似Pandas的便捷语法。

过与Pandas不同的是,Polars使用了一个用Rust编写的库,可以直接最大限度地利用您的硬件您不需要使用特殊语法利用并行处理或SIMD等提升性能功能都是自动可以利用的。就连像从CSV文件读取这样的简单操作也更快了。

Polars还提供了即时和延迟执行模式,因此查询可以立即执行,也可以延迟到需要时执行。它还提供了流式API,用于增量处理查询,不过许多函数还不能使用流式API。Rust开发人员可以使用pyo3制作自己的Polars扩展。

5.Snakemake

数据科学工作流很难建立,更难以一致的、可预测的方式建立。Snakemake的创建就是为了实现这一点在Python中自动建立数据分析机制同时确保其他人都能得到与您相同的结果。许多现有的数据科学项目都依赖Snakemake。数据科学工作流中的不定因素越多,就越有可能受益于用Snakemaker自动化处理工作流

Snakemake工作流类似GNU make工作流您用规则定义想要创建的东西,这些规则定义了它们接受什么、输出什么以及执行什么命令来做到这一点。工作流规则可以是多线程的假设这会给它们带来好处,配置数据可以从JSON/YAML文件通过管道导入。您还可以在工作流中定义函数来转换用于规则中数据,并将在每个步骤采取的操作写入日志。

Snakemake作业旨在可移植——它们可以部署任何Kubernetes管理的环境中,或部署到特定的云环境中,比如Google Cloud Life Sciences或AWS上的Tibanna。工作流可以被冻结”,以使用一具体的软件包,并且任何成功执行的工作流都可以自动生成单元测试,并加以存储若是长期存档,您可以将工作流存储为打包文件(tarball)

原文标题:5 newer data science tools you should be using with Python,作者:Serdar Yegulalp

责任编辑:华轩 来源: 51CTO
相关推荐

2018-11-01 08:49:28

数据科学数据科学工具数据分析

2021-04-26 08:28:55

数据科学机器学习数据科学工具

2023-12-01 15:10:56

2018-12-17 09:00:00

大数据数据科学工具

2022-08-16 10:32:08

Python数据科学

2022-06-01 13:52:11

开源大数据

2022-08-15 14:36:21

Python数据科学编程语言

2020-02-12 11:54:32

网络战模拟工具网络攻击网络安全

2020-06-10 07:54:11

PythonSQL数据科学

2016-08-31 16:39:59

PythonRC++

2016-08-10 13:51:23

PythonR异常处理

2020-09-08 15:15:06

Python数据科学Python库

2013-11-27 10:36:47

命令行工具ping工具

2019-09-18 20:39:07

数据科学自动化工具机器学习

2022-02-10 15:22:05

Python开发数据科学

2016-10-26 09:55:31

商业智能

2023-08-24 16:28:44

程序员工具

2021-01-03 19:54:53

Python数据科学数据分析

2021-01-04 09:55:45

Python开发数据

2015-07-23 10:49:06

Python工具数据科学
点赞
收藏

51CTO技术栈公众号