百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

推荐系统经典面试题,简述什么是wide&deep模型

toyiye 2024-08-17 23:37 11 浏览 0 评论

名词解释

1.1 Memorization 和 Generalization

Google Wide&Deep 论文中,通篇都是这两个词,必须搞懂是怎么回事!

这个是从人类的认知学习过程中演化来的。人类的大脑很复杂,它可以记忆 (memorize) 下每天发生的事情(麻雀可以飞,鸽子可以飞)然后泛化 (generalize) 这些知识到之前没有看到过的东西(有翅膀的动物都能飞)。但是泛化的规则有时候不是特别的准,有时候会出错(有翅膀的动物都能飞吗)。那怎么办那,没关系,记忆 (memorization) 可以修正泛化的规则 (generalized rules),叫做特例(企鹅有翅膀,但是不能飞)。

这就是 Memorization 和 Generalization 的来由或者说含义。

Wide&Deep Mode 就是希望计算机可以像人脑一样,可以同时发挥 memorization 和 generalization 的作用。--Heng-Tze Cheng(Wide&Deep 作者)

1.2 Wide 和 Deep

同样,这两个词也是通篇出现,究竟什么意思你明白了没?

其实,Wide 也是一种特殊的神经网络,他的输入直接和输出相连。属于广义线性模型的范畴。Deep 就是指 Deep Neural Network,这个很好理解。Wide Linear Model 用于 memorization;Deep Neural Network 用于 generalization。左侧是 Wide-only,右侧是 Deep-only,中间是 Wide & Deep:

1.3 Cross-product transformation

Wide 中不断提到这样一种变换用来生成组合特征,也必须搞懂才行哦。它的定义如下:

k 表示第 k 个组合特征。i 表示输入 X 的第 i 维特征。C_ki 表示这个第 i 维度特征是否要参与第 k 个组合特征的构造。d 表示输入 X 的维度。那么到底有哪些维度特征要参与构造组合特征呢?这个是你之前自己定好的,在公式中没有体现。

绕了一大圈,整这么一个复杂的公式,其实就是我们之前一直在说的 one-hot 之后的组合特征:仅仅在输入样本 X 中的特征 gender=female 和特征 language=en 同时为 1,新的组合特征AND(gender=female, language=en)才为 1。所以只要把两个特征的值相乘就可以了。

Cross-product transformation 可以在二值特征中学习到组合特征,并且为模型增加非线性

2. Wide & Deep Model

Memorization:之前大规模稀疏输入的处理是:通过线性模型 + 特征交叉。所带来的 Memorization 以及记忆能力非常有效和可解释。但是 Generalization(泛化能力)需要更多的人工特征工程。

Generalization:相比之下,DNN 几乎不需要特征工程。通过对低纬度的 dense embedding 进行组合可以学习到更深层次的隐藏特征。但是,缺点是有点 over-generalize(过度泛化)。

推荐系统中表现为:会给用户推荐不是那么相关的物品,尤其是 user-item 矩阵比较稀疏并且是 high-rank(高秩矩阵)

两者区别:Memorization 趋向于更加保守,推荐用户之前有过行为的 items。相比之下,generalization 更加趋向于提高推荐系统的多样性(diversity)。

Wide & Deep:Wide & Deep 包括两部分:线性模型 + DNN 部分。结合上面两者的优点,平衡 memorization 和 generalization。原因:综合 memorization 和 generalizatio 的优点,服务于推荐系统。相比于 wide-only 和 deep-only 的模型,wide & deep 提升显著(这么比较脸是不是有点大)

2.1 推荐系统

2.1.1 介绍推荐系统分为两种: CF-Based(协同过滤)、Content-Based(基于内容的推荐)

协同过滤 (collaborative ?ltering) 就是指基于用户的推荐,用户 A 和 B 比较相似,那么 A 喜欢的 B 也可能喜欢

基于内容推荐是指物品 item1 和 item2 比较相似,那么喜欢 item1 的用户多半也喜欢 item2

2.1.2 线性模型

大规模的在线推荐系统中,logistic regression 应用非常广泛,因为其 简单、易扩展、可解释性。

LR 的输入多半是二值化后的 one-hot 稀疏特征。Memorization 可以通过在稀疏特征上cross-product transformations来实现,比如:AND(user_installed_app=QQ, impression_app=WeChat),当特征 user_installed_app=QQ, 和特征 impression_app=WeChat 取值都为 1 的时候,组合特征 AND(user_installed_app=QQ, impression_app=WeChat) 的取值才为 1,否则为 0。

推荐系统可以看成是一个 search ranking 问题,根据 query 得到 items 候选列表,然后对 items 通过 ranking 算法排序,得到最终的推荐列表。Wide & Deep 模型是用来解决 ranking 问题的。

如果仅仅使用线性模型:无法学习到训练集中没有的 query-item 特征组合。Embedding-based Model 可以解决这个问题。

2.1.3 Embedding-Based

FM 和 DNN 都算是这样的模型,可以在很少的特征工程情况下,通过学习一个低纬度的 embedding vector 来学习训练集中从未见过的组合特征。

FM 和 DNN 的缺点在于: 当 query-item 矩阵是稀疏并且是 high-rank 的时候(比如 user 有特殊的爱好,或 item 比较小众),很难非常效率的学习出低维度的表示。

这种情况下,大部分的 query-item 都没有什么关系。但是 dense embedding 会导致几乎所有的 query-item 预测值都是非 0 的,这就导致了推荐过度泛化,会推荐一些不那么相关的物品。

相反,linear model 却可以通过 cross-product transformation 来记住这些 exception rules,而且仅仅使用了非常少的参数。

总结一下:线性模型无法学习到训练集中未出现的组合特征;FM 或 DNN 通过学习 embedding vector 虽然可以学习到训练集中未出现的组合特征,但是会过度泛化。 Wide & Deep Model 通过组合这两部分,解决了这些问题。

2.1.4 工作流程

总的来说, 推荐系统 = Retrieval + Ranking

推荐系统工作流程如下:

想象这样一个实际情况:我们打开 Google APP store,首页展示给我们一些 APP,我们点击或者下载或者购买了其中一个 APP。

在这样一个流程中,推荐系统是如何工作的那? 我们对比上面的图一点点来说: Query:当我们打开 APP Store 的时候,就产生了一次 Query,它包含两部分的特征:User features, contextual features。

UserFeatures 包括性别、年龄等人口统计特征,ContextualFeatures 包括设备、时间等上下文特征。

Items:APP store 接着展示给我们一系列的 app,这些 app 就是推荐系统针对我们的 Query 给出的推荐。这个也被叫做 impression。

User Actions:针对推荐给你的任何一个 APP,我们都可以点击、下载、购买等操作。也就是说推荐给你的 APP,你产生了某种行为。

这不正是我们的最终目的吗! Logs:Logs = Query + Impression + UserAction 查询、展示列表、操作会被记录到 logs 中作为 训练数据 给 Learner 来学习。

Retrieval:假如让你来想一个最简单的推荐系统,针对这一次 Query,来给出推荐列表。你能想到的最简单,最暴力的做法是什么呢?

给数据库中所有的 APP 打出一个分数,然后按照分数从高到低返回前 N 个(比如说前 100 个) 但是有个问题,这样数据库中的 APP 实在是太多了,为了保证响应时间,这样做太慢了!Retrieval 就是用来解决这个问题的。

它会利用机器学习模型和一些人为定义的规则,来返回最匹配当前 Query 的一个小的 items 集合,这个集合就是最终的推荐列表的候选集。

Ranking:今天的主角 Wide&Deep Model 就是用来做这个事情的啦。 前面 Learner 学习到了一个 Model,利用这个 Model 对 Retrieval 给出的候选集 APP 打分!并按照打分从高到低来排序,并返回前 10 个 APP 作为最终的推荐结果展示给用户。

Retrieval system 完了之后,就是 Ranking system。Retrieval 减小了候选 items 池,Ranking system 要做的就是对比当前的 Query,对 Candidate pool 里面的所有 item 打分! 得分 score 表示成 P(y|x), 表示的是一个条件概率。

y 是 label,表示 user 可以采取的 action,比如点击或者购买。x 表示输入,特征包括: User features(年龄、性别、语言、民族等) Contextual features(上下文特征:设备,时间等) Impression features(展示特征:app age、app 的历史统计信息等)

2.2 Wide Part

Wide部分其实是一个广义的线性模型,就是一个泛化的形如

的线性模型,就如上图左边部分所展示的一样。y是我们要预测的结果,x是特征,它是一个d维的向量

。这里的d是特征的数量。同样w也是一个d维的权重向量

,b呢则是偏移量。这些我们在之前线性回归的模型当中曾经都介绍过,大家应该也都不陌生。 特征包含两个部分,一种是原始数据直接拿过来的数据raw input,另外一种是我们经过特征转化之后得到的特征cross-product transformation。最重要的一种特征转化方式就是交叉组合,交叉组合可以定义成如下形式:

这里的

是一个bool型的变量,表示的是第i个特征的第k种转化函数

的结果。

由于使用的是乘积的形式,只有所有项都为真,最终的结果才是1,否则是0。比如"AND(gender=female,language=en)"这就是一个交叉特征,只有当用户的性别为女,并且使用的语言为英文同时成立,这个特征的结果才会是1。

通过这种方式我们可以捕捉到特征之间的交互,以及为线性模型加入非线性的特征。 接下来我们用同一个例子来说明:你给 model 一个 query(你想吃的美食),model 返回给你一个美食,然后你购买 / 消费了这个推荐。 也就是说,推荐系统其实要学习的是这样一个条件概率: P(consumption | query, item)

Wide Part 可以对一些特例进行 memorization。比如 AND(query="fried chicken", item="chicken fried rice") 虽然从字符角度来看很接近,但是实际上完全不同的东西,那么 Wide 就可以记住这个组合是不好的,是一个特例,下次当你再点炸鸡的时候,就不会推荐给你鸡肉炒米饭了。

2.3 Deep Part

Deep部分是一个前馈神经网络,也就是上图当中的右侧部分。

我们观察一下这张图会发现很多细节,比如它的输入是一个sparse的feature,可以简单理解成multihot的数组。

这个输入会在神经网络的第一层转化成一个低维度的embedding,然后神经网络训练的是这个embedding。

这个模块主要是被设计用来处理一些类别特征,比如说item的类目,用户的性别等等。和传统意义上的one-hot方法相比,embedding的方式用一个向量来表示一个离散型的变量,它的表达能力更强,并且这个向量的值是让模型自己学习的,因此泛化能力也大大提升。这也是深度神经网络当中常见的做法。 继续套用上面的例子。

Deep Part 通过学习一个低纬度的 dense representation(也叫做 embedding vector)对于每一个 query 和 item,来 泛化 给你推荐一些字符上看起来不那么相关,但是你可能也是需要的。

比如说:你想要炸鸡,Embedding Space 中,炸鸡和汉堡很接近,所以也会给你推荐汉堡。 Embedding vectors 被随机初始化,并根据最终的 loss 来反向训练更新。这些低维度的 dense embedding vectors 被作为第一个隐藏层的输入。隐藏层的激活函数通常使用 ReLU。

2.4 模型训练

Wide部分和Deep部分都有了之后,通过加权的方式合并在一起。这也就是上图当中的中间部分。

最上层输出之前其实是一个sigmoid层或者是一个linear层,就是一个简单的线性累加。英文叫做joint,paper当中还列举了joint和ensemble的区别,对于ensemble模型来说,它的每一个部分是独立训练的。

而joint模型当中的不同部分是联合训练的。ensemble模型当中的每一个部分的参数是互不影响的,但是对于joint模型而言,它当中的参数是同时训练的。

这样带来的结果是,由于训练对于每个部分是分开的,所以每一个子模型的参数空间都很大,这样才能获得比较好的效果。

而joint训练的方式则没有这个问题,我们把线性部分和深度学习的部分分开,可以互补它们之间的缺陷,从而达到更好的效果,并且也不用人为地扩大训练参数的数量。

再次回到那个例子。原始的稀疏特征,在两个组件中都会用到,比如query="fried chicken" item="chicken fried rice":

在训练的时候,根据最终的 loss 计算出 gradient,反向传播到 Wide 和 Deep 两部分中,分别训练自己的参数。

也就是说,两个模块是一起训练的,注意这不是模型融合。 Wide 部分中的组合特征可以 记住 那些稀疏的,特定的 rules Deep 部分通过 Embedding 来 泛化 推荐一些相似的 items Wide 模块通过组合特征可以很效率的学习一些特定的组合,但是这也导致了他并不能学习到训练集中没有出现的组合特征。

所幸,Deep 模块弥补了这个缺点。另外,因为是一起训练的,wide 和 deep 的 size 都减小了。wide 组件只需要填补 deep 组件的不足就行了,所以需要比较少的 cross-product feature transformations,而不是 full-size wide Model。

论文中的实现: 训练方法是用 mini-batch stochastic optimization。 Wide 组件是用 FTRL(Follow-the-regularized-leader) + L1 正则化学习。

Deep 组件是用 AdaGrad 来学习。

3. 系统实现

3.1 训练数据生成

请大家一定格外的关注训练数据到底是什么?这对于理解推荐系统到底是怎么回事很重要。

先给出结论: 一次展示中的一个 Item 就是一条样本。 样本的 label 要根据实际的业务需求来定,比如 APP Store 中想要提高 APP 的下载率,那么就以这次展示的这个 Item 中用户有没有下载,作为 label。

下载了 label 为 1,否则为 0.说白了,模型需要预测,在当前 Query 的条件下,对于这个 Item,用户下载的条件概率。 离散特征 map 成 id 过滤掉出现次数少于设定阈值的离散特征取值,然后把这些全部 map 成一个 ID。

离散特征取值少,就直接编号。多的话可能要 Hash 连续特征通过分位数规范化到 [0,1] 先把所有的值分成 n 份,那么属于第 i 部分的值规范化之后的值为 (i - 1)/(n - 1)。

3.2 模型训练

Deep 部分使用的特征:连续特征Embedding 后的离散特征,Item 特征 Wide 部分使用的特征:Cross Product Transformation 生成的组合特征 但是,官方给出的示例代码中,Wide 部分还使用了离散特征(没有 one-hot)。

也有大佬说不用特征交叉效果也很好,这个大家在实际项目中就以实验为准吧。 每当有新的数据到达的时候,就要重新训练。如果每次都从头开始会非常耗时,Google 给出的解决办法是:实现了 warm-starting system, 它可以用之前模型的 embeddings 和 线性模型的 weights 来初始化新的模型。

Embedding 维度大小的建议:Wide&Deep 的作者指出,从经验上来讲 Embedding 层的维度大小可以用如下公式来确定:

n 是原始维度上特征不同取值的个数;k 是一个常数,通常小于 10. 3.3 线上使用 模型被部署之后。

每一次请求,服务器会收到一系列的 app 候选集(从 app retrival system 输出的)以及 user features(用于为每一个 app 打分)。

然后,模型会把 APP 按照 score 排序,并展示给 user,按照这个顺序展示。score 就是对于 wide & deep 模型的一次 forward pass。

为了控制每一次 request 响应时间在 10ms 内,引入了并行化技术。将 app 候选集分成多个小的 batches,并行化预测 score。

4. 适用范围

Wide & Deep Model 适用于输入非常稀疏的大规模分类或回归问题。

比如推荐系统、search、ranking 问题。输入稀疏通常是由离散特征有非常非常多个可能的取值造成的,one-hot 之后维度非常大。

5. 优缺点

缺点:Wide 部分还是需要人为的特征工程。

优点:实现了对 memorization 和 generalization 的统一建模。

6. 代码实践

代码放到 github 上了: https://github.com/gutouyu/ML_CIA/tree/master/Wide%26Deep

数据集:https://archive.ics.uci.edu/ml/machine-learning-databases/adult代码主要包括两部分:Wide Linear Model 和 Wide & Deep Model。 数据集长这样,最后一行是 label,预测收入是否超过 5 万美元,二分类问题。

6.1 Wide Linear Model

离散特征 处理分为两种情况:知道所有的不同取值,而且取值不多。

tf.feature_column.categorical_column_with_vocabulary_list不知道所有不同取值,或者取值非常多。tf.feature_column.categorical_column_with_hash_bucket

原始连续特征:tf.feature_column.numeric_column

规范化到 [0,1] 的连续特征:tf.feature_column.bucketized_column

组合特征 / 交叉特征:tf.feature_column.crossed_column

组装模型:这里主要用了离散特征 + 组合特征

训练 & 评估:

运行截图:

6.2 Wide & Deep Model

Deep 部分用的特征: 未处理的连续特征 + Embedding(离散特征)在 Wide 的基础上,增加 Deep 部分:离散特征 embedding 之后,和连续特征串联。

组合 Wide & Deep:DNNLinearCombinedClassifier

训练 & 评估:

运行结果:



↓↓↓免费送!福利!福利!福利↓↓↓

了解七月在线的的小伙伴应该知道2019年七月在线出了两本书《名企AI面试100题》和《名企AI面经100篇》,反响很好,助力数千人拿到dream offer。今年我们又整理出了两本书《2021年最新大厂AI面试题 Q2版》、《机器学习十大算法系列》、《2021年最新大厂AI面试题 Q3版》,七月在线学员拿到书后反响不错。为了让更多AI人受益,七仔现把电子版免费送给大家。

↓ ↓ ↓以下5本书,电子版免费送 ↓ ↓ ↓

《2021年最新大厂AI面试题 Q2版》、《2021年最新大厂AI面试题 Q3版》《机器学习十大算法系列》、《名企AI面试100题》及《名企AI面经100篇》无套路,免费取!

需要的小伙伴评论区发书名,看到后发你。

相关推荐

# Python 3 # Python 3字典Dictionary(1)

Python3字典字典是另一种可变容器模型,且可存储任意类型对象。字典的每个键值(key=>value)对用冒号(:)分割,每个对之间用逗号(,)分割,整个字典包括在花括号({})中,格式如...

Python第八课:数据类型中的字典及其函数与方法

Python3字典字典是另一种可变容器模型,且可存储任意类型对象。字典的每个键值...

Python中字典详解(python 中字典)

字典是Python中使用键进行索引的重要数据结构。它们是无序的项序列(键值对),这意味着顺序不被保留。键是不可变的。与列表一样,字典的值可以保存异构数据,即整数、浮点、字符串、NaN、布尔值、列表、数...

Python3.9又更新了:dict内置新功能,正式版十月见面

机器之心报道参与:一鸣、JaminPython3.8的热乎劲还没过去,Python就又双叒叕要更新了。近日,3.9版本的第四个alpha版已经开源。从文档中,我们可以看到官方透露的对dic...

Python3 基本数据类型详解(python三种基本数据类型)

文章来源:加米谷大数据Python中的变量不需要声明。每个变量在使用前都必须赋值,变量赋值以后该变量才会被创建。在Python中,变量就是变量,它没有类型,我们所说的"类型"是变...

一文掌握Python的字典(python字典用法大全)

字典是Python中最强大、最灵活的内置数据结构之一。它们允许存储键值对,从而实现高效的数据检索、操作和组织。本文深入探讨了字典,涵盖了它们的创建、操作和高级用法,以帮助中级Python开发...

超级完整|Python字典详解(python字典的方法或操作)

一、字典概述01字典的格式Python字典是一种可变容器模型,且可存储任意类型对象,如字符串、数字、元组等其他容器模型。字典的每个键值key=>value对用冒号:分割,每个对之间用逗号,...

Python3.9版本新特性:字典合并操作的详细解读

处于测试阶段的Python3.9版本中有一个新特性:我们在使用Python字典时,将能够编写出更可读、更紧凑的代码啦!Python版本你现在使用哪种版本的Python?3.7分?3.5分?还是2.7...

python 自学,字典3(一些例子)(python字典有哪些基本操作)

例子11;如何批量复制字典里的内容2;如何批量修改字典的内容3;如何批量修改字典里某些指定的内容...

Python3.9中的字典合并和更新,几乎影响了所有Python程序员

全文共2837字,预计学习时长9分钟Python3.9正在积极开发,并计划于今年10月发布。2月26日,开发团队发布了alpha4版本。该版本引入了新的合并(|)和更新(|=)运算符,这个新特性几乎...

Python3大字典:《Python3自学速查手册.pdf》限时下载中

最近有人会想了,2022了,想学Python晚不晚,学习python有前途吗?IT行业行业薪资高,发展前景好,是很多求职群里严重的香饽饽,而要进入这个高薪行业,也不是那么轻而易举的,拿信工专业的大学生...

python学习——字典(python字典基本操作)

字典Python的字典数据类型是基于hash散列算法实现的,采用键值对(key:value)的形式,根据key的值计算value的地址,具有非常快的查取和插入速度。但它是无序的,包含的元素个数不限,值...

324页清华教授撰写【Python 3 菜鸟查询手册】火了,小白入门字典

如何入门学习python...

Python3.9中的字典合并和更新,了解一下

全文共2837字,预计学习时长9分钟Python3.9正在积极开发,并计划于今年10月发布。2月26日,开发团队发布了alpha4版本。该版本引入了新的合并(|)和更新(|=)运算符,这个新特性几乎...

python3基础之字典(python中字典的基本操作)

字典和列表一样,也是python内置的一种数据结构。字典的结构如下图:列表用中括号[]把元素包起来,而字典是用大括号{}把元素包起来,只不过字典的每一个元素都包含键和值两部分。键和值是一一对应的...

取消回复欢迎 发表评论:

请填写验证码