本文转载自公众号“读芯术”(ID:AI_Discovery)。
在开始一项数据科学项目时,我们通常需要进行设置或配置,以确保所需的依赖关系,保持输出稳定,准备通用函数。
项目设置的一个案例(来自Handson-ML2)
本文将介绍JuypterNotebook中最有帮助的一些项目设置。
1. 确保Python版本
检查JupyterNotebook中的Python解释器版本:
- import sys
- sys.version'3.7.6 (default, Jan 8 2020, 13:42:34) \n[Clang 4.0.1 (tags/RELEASE_401/final)]'
为确保项目由Python解释器的最低及以上要求版本运行,可在项目设置中添加以下代码:
- # Python ≥3.7 is required
- import sys
- assert sys.version_info >= (3, 7)
Python需要为3.7及以上版本,否则会抛出AssertionError。
2. 确保程序包版本
检查安装的程序包版本,如TensorFlow。
- import tensorflow as tf
- tf.__version__'2.0.0'
确保项目是由TensorFlow2.0及以上版本运行的,否则会抛出AssertionError。
- # TensorFlow ≥2.0 is required
- import tensorflow as tf
- assert tf.__version__ >= "2.0"
3. 避免绘制模糊图像
JuypterNotebook中的默认绘图看起来有些模糊。例如,一张查找缺失值的简单热图。
(https://towardsdatascience.com/using-pandas-pipe-function-to-improve-code-readability-96d66abfaf8)
- import seaborn as sns
- import matplotlib.pyplot as plt
- %matplotlib inline# Default figure format png
- sns.heatmap(df.isnull(),
- yticklabels=False,
- cbar=False,
- cmap='viridis')
默认图像看起来很模糊
由上图可以看出,文本很模糊,Cabin栏中的缺失值过于拥挤,Embarked栏中的缺失值无法识别。
要解决这个问题,可在%matplotlib inline之后使用%config InlineBackend.figure_format='retina'或 %configInlineBackend.figure_format = 'svg',即:
- %matplotlib inline
- %config InlineBackend.figure_format = 'retina' # or 'svg'sns.heatmap(df.isnull(),
- yticklabels=False,
- cbar=False,
- cmap='viridis')
图片格式设置为retina或svg
与先前的图片比较,上图更加清晰,Embarked栏中的缺失值也能成功识别。
4. 在不同运行中保持输出稳定
数据科学项目中很多地方都在使用随机数字。例如:
- 来自Scikit-Learn的 train_test_split()
- 用于初始化权重的np.random.rand()
若未重置随机种子,则每次调用都会出现不同的数字:
- >>> np.random.rand(4)
- array([0.83209492, 0.10917076, 0.15798519, 0.99356723])
- >>> np.random.rand(4)
- array([0.46183001, 0.7523687 , 0.96599624, 0.32349079])
np.random.seed(0)使随机数字可预测:
- >>> np.random.seed(0)
- >>> np.random.rand(4)
- array([0.5488135 , 0.71518937, 0.60276338, 0.54488318])
- >>> np.random.seed(0)
- >>> np.random.rand(4)
- array([0.5488135 , 0.71518937, 0.60276338, 0.54488318])
如果(每次)都重置随机种子,那么每次都会出现相同的数据组。因此,项目能在不同运行中保持输出稳定。
5. 多单元输出
默认情况下,JupyterNotebook不能在同一单元中输出多种结果。要输出多种结果,可使用IPython重新配置shell。
- from IPython.core.interactiveshell import InteractiveShell
- InteractiveShell.ast_node_interactivity = "all"
6. 将图片保存到文件
Matplotlib能通过savefig()方法保存图片,但如果给定路径不存在则会引发错误。
- plt.savefig('./figures/my_plot.png')FileNotFoundError: [Errno 2] Nosuch file or directory: './figures/my_plot.png'
最好的做法是将所有图片都放到一个地方,如工作区的figures文件夹。可使用OS GUI(操作系统界面)或是在JupyterNotebook中运行logic指令,来手动创建一个figures文件夹,但是最好创建一个小函数来实现该操作。
当需要一些自定义图形设置或附加子文件夹来分组图形时,这种方法尤其适用。以下是将图片保存到文件的函数:
- import os
- %matplotlib inline
- import matplotlib.pyplot as plt# Where to save the figures
- PROJECT_ROOT_DIR = "."
- SUB_FOLDER = "sub_folder" #a sub-folder
- IMAGES_PATH = os.path.join(PROJECT_ROOT_DIR, "images", SUB_FOLDER)defsave_fig(name, images_path=IMAGES_PATH, tight_layout=True,extension="png", resolution=300):
- if not os.path.isdir(images_path):
- os.makedirs(images_path)
- path = os.path.join(images_path, name+ "." + extension)
- print("Saving figure:",name)
- if tight_layout:
- plt.tight_layout()
- plt.savefig(path, format=extension,dpi=resolution)
现在调用save_fig('figure_name'),会在工作区中创建一个images/sub_folder目录,图片以“figure_name.png”名称被保存到目录中。此外,还提供了三个最常用的设置:
- tight_layout 能自动调整子图填充
- extension 能以多种格式保存图片
- resolution 可设置图片分辨率
7. 下载数据(并解压)
处理网络数据对于数据科学工作者是常事。可以使用浏览器下载数据,并运行指令来解压文件,但最好的是创建一个小函数来执行该操作。当数据需要定期更改时,这一点尤其重要。
编写一个小脚本,在获取最新数据时运行(也可以设置一个定期自动执行的计划工作)即可。如果需要在多台机器上安装数据集,自动化抓取数据流程也十分有用。
以下是下载并解压数据的函数:
- import os
- import tarfile
- import zipfile
- import urllib
- # Where to save the data
- PROJECT_ROOT_DIR = "."
- SUB_FOLDER = "group_name"
- LOCAL_PATH = os.path.join(PROJECT_ROOT_DIR, "datasets", SUB_FOLDER)defdownload(file_url, local_path = LOCAL_PATH):
- if not os.path.isdir(local_path):
- os.makedirs(local_path)
- # Download file
- print(">>>downloading")
- filename = os.path.basename(file_url)
- file_local_path =os.path.join(local_path, filename)
- urllib.request.urlretrieve(file_url,file_local_path)
- # untar/unzip file
- if filename.endswith("tgz")or filename.endswith("tar.gz"):
- print(">>>unpacking file:", filename)
- tar =tarfile.open(file_local_path, "r:gz")
- tar.extractall(path = local_path)
- tar.close()
- eliffilename.endswith("tar"):
- print(">>> unpackingfile:", filename)
- tar =tarfile.open(file_local_path, "r:")
- tar.extractall(path = local_path)
- tar.close()
- eliffilename.endwith("zip"):
- print(">>>unpacking file:", filename)
- zip_file = zipfile.ZipFile(file_local_path)
- zip_file.extractall(path =local_path)
- zip_file.close()
- print("Done")
现在调用download("http://a_valid_url/housing.tgz"),会在工作区创建一个datasets/group_name目录,下载housing.tgz,并从该目录中提取出housing.csv ,这个小函数也能用于CSV和文本文件。
图源:unsplash
请查看笔者Github库中的源代码:
https://github.com/BindiChen/machine-learning/blob/master/data-analysis/004-7-setups-for-a-data-science-project/7-setups.ipynb