在第一篇文章中《机器学习之道:揭秘Sklearn常用技巧(1)》,我们揭示了Sklearn中的十大常用技巧,涵盖了离群值检测、特征选择、集成学习、缺失值填充、离群值处理、决策树展现、感知器应用以及模型选择等方面。现在,让我们继续深入探索Sklearn世界的奥秘,继续揭示更多强大的技术和方法,助您在机器学习之路上跻身更高层次。
第一篇中介绍的技巧为我们打开了Sklearn工具箱的一扇窗户,但这只是冰山一角。Sklearn作为一个强大的机器学习库,拥有丰富多彩的功能和工具,我们将在本文中继续探索其更多的用法和技术,助力您更加深入地理解和应用机器学习的精髓。随着我们逐步揭开Sklearn的神秘面纱,相信您的机器学习技能将得到进一步的提升,带来更加令人满意的结果。
11.离群值检测: ensemble.IsolationForest
由于基于树的和集成模型通常产生更健壮的结果,它们在离群值检测方面也被证明是有效的。Sklearn中的IsolationForest使用了一棵棵极其随机的树(tree.ExtraTreeRegressor)来检测离群值。每棵树尝试通过选择单个特征并在选定特征的最大和最小值之间随机选择分割值来隔离每个样本。这种随机分割方式产生的路径明显更短,从根节点到每棵树的终止节点。
Sklearn 用户指南:当一组随机树为特定样本产生了较短的路径长度时,它们极有可能是异常值。
from sklearn.ensemble import IsolationForest
X = np.array([-1.1, 0.3, 0.5, 100]).reshape(-1, 1)
clf = IsolationForest(random_state=0).fit(X)
clf.predict([[0.1], [0], [90]])
12.数据转换: preprocessing.PowerTransformer
许多线性模型需要对数值特征进行某种转换,以使它们呈正态分布。StandardScaler和MinMaxScaler对大多数分布都效果很好。然而,当数据呈高偏斜性时,分布的核心指标,如均值、中位数、最小值和最大值,会受到影响。因此,简单的归一化和标准化在偏斜分布上不起作用。
相反,Sklearn实现了PowerTransformer,它使用对数变换将任何偏斜的特征转换为尽可能接近正态分布。考虑Diamonds数据集中的这两个特征:
import seaborn as sns
diamonds = pd.read_csv("diamonds.csv")
diamonds[["price", "carat"]].hist(figsize=(10, 5))
这两个特征都呈现严重的偏斜。让我们使用PowerTransformer变换来解决这个问题:
from sklearn.preprocessing import PowerTransformer
pt = PowerTransformer()
diamonds.loc[:, ["price", "carat"]] = pt.fit_transform(diamonds[["price", "carat"]])
diamonds[["price", "carat"]].hist(figsize=(10, 5));
13.数据转换/离群值处理: preprocessing.RobustScaler
Sklearn中的另一个数值转换器是RobustScaler。从其名称中,你可能已经猜到它的作用 - 它可以以对离群值鲁棒的方式转换特征。如果一个特征中存在离群值,要使其成为正态分布是很困难的,因为它们会严重影响均值和标准差。
RobustScaler不使用均值/标准差,而是使用中位数和IQR(四分位距)对数据进行缩放,因为这两个指标不会因为离群值而产生偏差。
from sklearn.preprocessing import RobustScaler
X = [[ 1., -2., 2.], [ -2., 1., 3.],[ 4., 1., -2.]]
transformer = RobustScaler().fit(X)
transformer.transform(X)
14.批量转换/转换流水线: compose.make_column_transformer
在处理较为复杂的数据预处理场景中,通常会使用ColumnTransformer,使用ColumnTransformer时,每个预处理步骤都需要命名,导致代码变得冗长且难以阅读。为了解决这个问题,Sklearn提供了一个名为make_column_transformer的函数,类似于make_pipeline,可以简化代码并提高可读性。
import seaborn as sns
from sklearn.compose import make_column_transformer,ColumnTransformer
from sklearn.preprocessing import OneHotEncoder,StandardScaler
# Load diamonds dataset
diamonds = pd.read_csv("diamonds.csv")
X, y = diamonds.drop("price", axis=1), diamonds.price.values.reshape(-1, 1)
# Isolate numeric and categorical cols
num_cols = X.select_dtypes(include=np.number).columns
cat_cols = X.select_dtypes(exclude=np.number).columns
make_column_transformer((StandardScaler(), num_cols),
(OneHotEncoder(), cat_cols))
使用make_column_transformer可以大大缩短代码长度,并且它会自动为每个转换步骤命名,省去了手动命名的烦恼。
15.列选择器: compose.make_column_selector
上面的代码中:使用了select_dtypes函数以及pandas DataFrame的columns属性来分离数值列和分类列。虽然这种方法可行,但使用Sklearn有一种更加灵活和优雅的解决方案。
make_column_selector函数创建了一个列选择器,可以直接传递到ColumnTransformer实例中。它的工作原理与select_dtypes类似,但更好。它具有dtype_include和dtype_exclude参数,可以根据数据类型选择列。
如果您需要自定义列过滤器,甚至可以在设置其他参数为None的同时,将正则表达式传递给pattern参数。以下是其工作原理:
from sklearn.compose import make_column_selector
make_column_transformer(
(StandardScaler(), make_column_selector(dtype_include=np.number)),
(OneHotEncoder(), make_column_selector(dtype_exclude=np.number)),
)
不要传递列名列表,只需传递一个带有相关参数的make_column_selector实例.
16.编码: preprocessing.OrdinalEncoder
我们经常使用LabelEncoder来对有序分类特征进行编码。但是LabelEncoder只能一次转换一列,而不能像OneHotEncoder一样同时转换多列。您可能会认为Sklearn犯了一个错误!
实际上,正如其文档所述,LabelEncoder应该只用于编码响应变量(y)。要对特征数组(X)进行编码,应该使用OrdinalEncoder,它可以按预期工作。它将有序分类列转换为一个具有(0, n_categories - 1)类别的特征。它可以在一行代码中跨所有指定的列执行此操作,使其能够包含在管道中。
from sklearn.preprocessing import OrdinalEncoder
oe = OrdinalEncoder()
X = [
["class_1", "rank_1"],
["class_1", "rank_3"],
["class_3", "rank_3"],
["class_2", "rank_2"],
]
oe.fit_transform(X)
17.度量:metrics.get_scorer
Sklearn内置了50多个指标,它们的文本名称可以在sklearn.metrics.SCORERS.keys()中看到。在一个项目中,如果你要单独使用多个指标,你可能需要导入它们。
直接从sklearn.metrics中导入大量指标可能会污染你的命名空间,并变得不必要地冗长。作为解决方案,你可以使用metrics.get_scorer函数来访问任何指标,只需使用其文本名称,而无需导入它:
from sklearn.metrics import get_scorer
print(get_scorer("neg_mean_squared_error"))
print(get_scorer("recall_macro"))
print(get_scorer("neg_log_loss"))
18.超参数优化器: model_selection.HalvingGrid和HalvingRandomSearchCV
与其穷举的超参数优化器GridSearch和RandomizedSearch不同,新类使用了一种称为successive halving的技术。与在所有数据上训练所有候选集(参数组合集)不同,仅将一部分数据提供给参数。通过在较小的数据子集上训练表现最差的候选集来滤除它们。每次迭代后,训练样本的数量增加一定的因子,可能的候选集的数量减少相同的数量,从而大大提高了评估速度。
19.实用工具包:sklearn.utils
Sklearn在sklearn.utils子包下拥有大量的实用程序和辅助函数。Sklearn本身使用此模块中的函数来构建我们所有使用的所有转换器和估算器。
其中有许多有用的函数,比如class_weight.compute_class_weight、estimator_html_repr、shuffle、check_X_y等等。您可以在自己的工作流程中使用它们,使您的代码更像Sklearn,或者在创建适合Sklearn API的自定义转换器和估算器时使用它们可能会很方便。
深入探讨了Sklearn中更多强大的技术和方法,包括离群值检测、数据转换、列选择器、编码、度量以及超参数优化器等。通过揭示Sklearn世界的奥秘,可以更全面地理解和应用机器学习的精髓。这些技巧和工具的介绍不仅丰富了我们的工具箱,还使得处理复杂数据和构建模型更加高效和便捷。