百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

画像标签查询服务介绍及其实现方案

toyiye 2024-06-21 12:09 8 浏览 0 评论

标签查询服务是什么?

表4-1展示了用户常住省标签的Hive表结构及数据示例,其中p_date表示标签的数据日期,user_id代表的用户实体ID,province代表用户的常住省。大部分标签与省份标签一样存储在Hive表中,其属性包括用户实体ID、标签信息以及标签时间信息。

表4-1 用户常住省Hive表(userprofile_demo.userprofile_label_province)数据示例

p_date

user_id

province

2022-07-10

100

山东省

2022-07-10

200

北京市

2022-07-10

300

湖北省

2022-07-11

100

河南省

2022-07-11

200

北京市

2022-07-11

300

湖北省

以该表信息为例,当业务希望查询指定用户指定时间下的标签数值时,最直接的方式是编写如下SQL语句从表中查询出标签值数据。

SELECT
province
FROM
userprofile_demo.userprofile_label_province
WHERE
 p_date = '2022-07-11'
AND user_id = 100

当业务请求量较大且对接口响应时间要求比较严格时,直接通过SQL语句从Hive表查询结果的方式不再适用,可以将Hive表中的数据转存到其他存储引擎中来提高数据的访问效率。

以上就是标签查询服务的基本形态,即给定时间和实体ID来获取标签数值。其中“给定时间”一般默认是标签数据的最新日期,以表4-1中数据为例,当查询用户100的省份信息时,如无特殊说明会返回最新日期2022-07-11的标签数据“河南省”,而非2022-07-10下的标签数据“山东省”。

标签查询服务主要应用在以下业务场景中。

  • 单用户画像查询:用户画像查询功能可以通过标签查询服务来实现,给定UserId可以查出该用户的多个标签数值并展示在页面上。许多运营类平台在展示用户信息的地方,可以借助标签查询服务获取更多元的画像标签数据来补充用户信息、丰富用户的展示维度。在客服系统或者审核系统中,可以使用标签查询服务获取用户的风险类标签来辅助客服和审核人员做业务判断。
  • 运营活动:在运营活动的关键环节可以通过用户标签值来区分运营策略,实现精细化运营。比如在某次红包活动中,可以根据用户的活跃等级来确定用户的红包大小,当用户的活跃等级标签数值为高活时可以分发金额较大的红包。同理,在客户端上判断是否展示某款游戏的入口,可以通过查询用户的“游戏兴趣标签”数值来确定,当兴趣值超过指定阈值时才可以显示游戏入口。
  • 算法工程:用户画像标签也属于算法特征,可直接应用到算法模型训练中。推荐系统中大部分模型都提供在线服务,在模型预测时需要输入用户的各类特征数据,通过调用标签查询服务可以获取标签数据作为特征输入模型获得预测结果。推荐系统架构设计中一般会使用特征池存储推荐工程常用的特征和画像数据,借助标签查询服务也可以补充完善该部分数据。

标签数据如何写入缓存

直接从Hive表中查询标签数据响应时间较长且受资源影响无法支持大量的并发请求,为了支持高并发和快速响应,可以将Hive表中的数据转储到其他技术组件中。可用于存储标签数据并支持快速查询的技术组件有挺多,业界常用的有HBase、Elasticsearch、Redis、MongoDB。

虽然标签查询服务业务逻辑简单,但是标签查询需要覆盖不同类型、不同数据结构的标签,这需要标签缓存支持丰富的数据类型。标签查询服务的使用场景多为高并发场景且需要通过灵活扩容来支持更高的并发需求,这一特点要求标签缓存支持高并发调用和较低的扩缩容成本。标签查询服务涉及的标签数据每日都会有大量的更新以及上下线操作,这需要标签缓存支持大数据快速写入以及灵活的数据删减功能。

HBase是Hadoop生态圈下的NoSQL数据库,因其部署成本较高且数据读取较慢,在高并发场景下性能表现较差。Elasticsearch的优势在于全文检索,将标签灌入Elasticsearch往往会配合人群圈选使用,单独用于标签查询时,其数据写入成本较高且不适合高并发调用。MongoDB可用于大数据的存储和随机访问,其性能表现良好,但是在操作的简便性和内存占用上不如Redis。Redis作为一款比较流行的数据缓存被业界广泛使用,其支持丰富的数据结构,可以快速部署高可用的分布式集群,借助Redis的各类特性可以实现标签的灵活上下线。结合标签查询业务特点,最终选择Redis作为标签查询的缓存方案。

将Hive数据同步到Redis的实现方式有多种,以表4-1所示的用户常住省标签数据为例,下面将分别介绍基于Spark、Flink以及自行读取HDFS文件的实现方式。以下代码都假设常住省标签Hive数据表的存储格式为Parquet。

使用Spark写入数据

借助Spark可以简便地读取指定Hive表数据,并写入到Redis中,其核心代码如下所示。

public static void main() {
// 配置Spark运行参数
SparkSession spark = SparkSession.builder()
.appName("Spark Read Hive Data To Redis").enableHiveSupport().getOrCreate();
// 查询Hive表数据
Dataset<Row> sqlDF = spark.sql("SELECT user_id, province FROM userprofile_demo.userprofile_label_province");
// 数据转换为对象
Dataset<LabelInfo> stringsDS = sqlDF.map(
(MapFunction<Row, LabelInfo>) row -> {
return new LabelInfo(row.getLong(0), row.getString(1));
},
Encoders.bean(LabelInfo.class));
// 遍历数据并写入Redis中
stringsDS.foreach(item -> {
String key = String.format("province:uid:%s", item.key);
redisClient.set(key, item.value);
});
}
@AllArgsConstructor
public static class LabelInfo implements Serializable {
private Long key;
private String value;
// ...
}

使用Flink写入数据

Spark是主流的离线大数据处理引擎,Flink主要用于实时大数据处理。目前Flink在推动流批一体化建设,即可以同时支持流式数据处理和离线批数据处理,这也是大数据处理引擎的发展方向。所以通过Flink也可以读取Hive数据并写入Redis,其核心代码如下所示。

public static void main(String[] args) throws Exception {
try {
String inputFile = "Hive数据表HDFS路径";
final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
Job job = Job.getInstance();
HadoopInputFormat<Void, Group> hadoopInputFormat = new HadoopInputFormat<Void, Group>(
new ParquetInputFormat(), Void.class, Group.class, job);
ParquetInputFormat.addInputPath(job, new Path(inputFile));
DataSource<Tuple2<Void, Group>> hiveTableData = env.createInput(hadoopInputFormat);
// 处理读取到的Hive表数据
hiveTableData.flatMap(new RichFlatMapFunction<Tuple2<Void, Group>, Tuple2<Void, Group>>() {
@Override
public void open(Configuration parameters) throws Exception {
super.open(parameters);
}
@Override
public void flatMap(Tuple2<Void, Group> voidGroupTuple2,
Collector<Tuple2<Void, Group>> collector) throws InterruptedException {
Group val = voidGroupTuple2.f1;
try {
// 将数据解析为map格式,如{"user_id": 100, "province": "山东省"}
Map<String, String> tempMap = ToolsUtils.stringToMap(val.toString());
insertIntoCache(tempMap);
} catch (Exception e) {
// 异常处理逻辑
}
}
// 将数据写入Redis
public void insertIntoCache(Map<String, String> rawData) {
String key = String.format("province:uid:%s", rawData.get("user_id"));
redisClient.set(key, rawData.get("province"));
}
@Override
public void close() throws Exception {
super.close();
}
}).writeAsText("输出文件地址", FileSystem.WriteMode.OVERWRITE);
// 执行任务
env.execute("DemoCode");
} catch (Exception e) {
// 异常处理逻辑
}
}

自行读取HDFS文件写入数据

通过Spark和Flink可以简便地将Hive表数据缓存到Redis,其实现原理是在分布式场景下分片读取HDFS文件后解析数据内容并最终写入到Redis中。工程上也可以自行编写代码读取HDFS文件并实现数据解析逻辑,其核心代码如下所示。

// 获取Hadoop配置
public static Configuration getConfiguration() {
Configuration conf = new Configuration();
conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
try {
conf.addResource( "mountTable.xml配置文件路径");
conf.addResource("core-site.xml配置文件路径");
conf.addResource("hdfs-site.xml配置文件路径");
} catch (Exception e) {
// 异常处理逻辑
}
return conf;
}
public static void main(String[] args) {
String filePath = "Hive数据表HDFS路径";
List<String> properties = Lists.newArrayList("user_id", "province");
// 构建ParquetReader
Configuration conf = getConfiguration();
Path file = new Path(filePath);
ParquetReader.Builder<Group> builder = ParquetReader.builder(new GroupReadSupport(), file)
.withConf(conf);
ParquetReader<Group> reader = builder.build();
SimpleGroup group = null;
GroupType groupType = null;
// 读取HDFS文件并逐行解析数据内容
while ((group = (SimpleGroup) reader.read()) != null) {
groupType = group.getType();
Map<String, String> dataMap = Maps.newHashMapWithExpectedSize(properties.size());
for (int i = 0; i < groupType.getFieldCount(); i++) {
String colName = groupType.getFieldName(i);
if (properties.contains(colName)) {
String colValue = group.getValueToString(i, 0);
dataMap.put(colName, colValue);
}
}
// 将数据写入Redis
if (!dataMap.isEmpty()) {
String key = String.format("province:uid:%s", dataMap.get("user_id"));
redisClient.set(key, dataMap.get("province"));
}
}
}

以上介绍了3种读取标签Hive表数据并写入到Redis的实现方式,如图4-2所示,其实现逻辑和流程都非常相似。首先读取Hive数据文件,然后将数据内容解析转换成合理的数据结构,最后写入Redis中。

图4-2 标签数据灌入缓存方案实现逻辑

Redis作为标签查询服务的缓存也有一些缺点。Redis本身是基于内存构建的,大规模部署Redis的成本较高;Redis比较适合做热数据缓存,即存储经常被访问到的数据,如果有大量的冷数据是对资源的一种浪费。标签查询场景比较容易出现大量的冷数据,这是因为标签查询场景下大部分用户的标签数据被访问的概率较小。当明确有大量冷数据的时候,可以考虑采用Redis + HBase双层存储的方式,其中Redis用来存储热数据,HBase用来存储冷数据,当在Redis中查询不到数据时兜底从HBase进行查询。比如可以将月活用户的标签数据写入Redis,非月活数据写入HBase,月活用户基本可以覆盖大部分的业务查询需求。双层存储可以节约大量资源,但是其维护成本也会提升,这需要结合自身业务特点和技术能力来做选择。


本文节选自《用户画像:平台构建与业务实践》,转载请注明出处。

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码