百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

面试中常被问到的Spark Shuffle算子清楚吗

toyiye 2024-06-21 12:01 6 浏览 0 评论

当在Spark程序中执行操作时,它会被划分为不同的阶段(stage),这些阶段的划分依据是否包含shuffle操作和宽依赖。现在,让我们一起看看哪些操作会引发shuffle操作。

一各种bykey类聚合算子

1. reduceByKey算子

reduceByKey操作可以将RDD[K,V]中的元素按照相同的K对V进行聚合。其存在多种重载形式,还可以设置新RDD的分区数。

案例实现:统计单词出现次数。

object KeyValue02_reduceByKey {

def main(args: Array[String]): Unit ={

// 1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

// 2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

// 3具体业务逻辑

// 3.1 创建第一个RDD

val rdd = sc.makeRDD(List(("a",1),("b",5),("a",5),("b",2)))

// 3.2 计算相同key对应值的相加结果

val reduce: RDD[(String, Int)] = rdd.reduceByKey((v1,v2) => v1+v2)

// 3.3 触发计算,查看运行结果

reduce.collect()

Thread.sleep(99999)

// 4 关闭连接

sc.stop()

}

}

运行结果截图:

aggregateByKey算子

aggregateByKey操作可以给每一个分区中的每一种key一个初始值,每一个分区用初始值逐步迭代value,函数分区间实现合并每个分区中的结果。

案例实现:求每个分区相同key对应值的最大值,然后相加。

object KeyValue04_aggregateByKey {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3具体业务逻辑

//3.1 创建第一个RDD

val rdd: RDD[(String, Int)] = sc.makeRDD(List(("a",1),("a",3),("a",5),("b",7),("b",2),("b",4),("b",6),("a",7)),2)

//3.2 取出每个分区相同key对应值的最大值,然后相加

val res: RDD[(String, Int)] = rdd.aggregateByKey(0)(math.max(_, _), _ + _)

//3.3 触发计算,查看运行结果

res.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:


注意:groupByKey、foldByKey、combineByKey同样存在shuffle操作,在这里就不一一列举了。

二排序算子

sortByKey算子

sortByKey操作在一个(K,V)的RDD上调用,K必须实现Ordered接口,返回一个按照key进行排序的(K,V)的RDD。

案例实现:创建一个pairRDD,按照key的正序和倒序进行排序。

object KeyValue07_sortByKey {

def main(args: Array[String]): Unit ={

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3具体业务逻辑

//3.1 创建第一个RDD

val rdd: RDD[(Int, String)] = sc.makeRDD(Array((3,"aa"),(6,"cc"),(2,"bb"),(1,"dd")),3)

//3.2 按照key的正序(默认顺序)

val res: RDD[(Int, String)] = rdd.sortByKey(true)

//3.3 触发计算,查看运行结果

res.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:

sortBy算子

sortBy算子操作用于排序数据。在排序之前,可以将数据通过f函数进行处理,之后按照f函数处理的结果进行排序,默认为正序排列。排序后新产生的RDD的分区数与原RDD的分区数一致。

案例实现:创建一个RDD,按照数字大小分别实现正序和倒序排序。

object value10_sortBy {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3具体业务逻辑

// 3.1 创建一个RDD

val rdd: RDD[Int] = sc.makeRDD(List(2, 1, 3, 4, 6, 5),3)

// 3.2 默认是升序排

val sortRdd: RDD[Int] = rdd.sortBy(num => num)

//3.3 触发计算,查看运行结果

sortRdd.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:

三分区操作类算子

coalesce算子

coalesce重新分区,可以选择是否进行shuffle过程。由参数shuffle: Boolean = false/true决定。该操作缩减分区数,用于大数据集过滤后,提高小数据集的执行效率。

案例实现:用coalesce实现4个分区合并为两个分区。

object value08_coalesce {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3.创建一个RDD

val rdd: RDD[Int] = sc.makeRDD(Array(1, 2, 3, 4, 5, 6), 3)

//3.1 缩减分区

val coalesceRDD: RDD[Int] = rdd.coalesce(2,true)

//3.2 触发计算,查看运行结果

coalesceRDD.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:

repartition

repartition操作内部其实执行的是coalesce操作,参数shuffle的默认值为true。无论是将分区数多的RDD转换为分区数少的RDD,还是将分区数少的RDD转换为分区数多的RDD,repartition操作都可以完成,因为无论如何都会经shuffle过程。

案例实现:创建一个4个分区的RDD,对其重新分区。

object value09_repartition {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3. 创建一个RDD

val rdd: RDD[Int] = sc.makeRDD(Array(1, 2, 3, 4, 5, 6), 3)

//3.1 重新分区

val repartitionRdd: RDD[Int] = rdd.repartition(2)

//3.2 触发计算,查看运行结果

repartitionRdd.collect()

Thread.sleep(99999)

//4. 关闭连接

sc.stop()

}

}

运行结果截图:


四去重算子

distinct算子

distinct算子操作对内部的元素进行去重,并将去重后的元素放到新的RDD中。

案例实现:对RDD采用多个Task去重。

object value07_distinct {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3具体业务逻辑

// 3.1 创建一个RDD

val distinctRdd: RDD[Int] = sc.makeRDD(List(1, 2, 1, 5, 2, 9, 6, 1))

// 3.2 打印去重后生成的新RDD

distinctRdd.distinct().collect().foreach(println)

// 3.3 对RDD采用多个Task去重,提高并发度

val res: RDD[Int] = distinctRdd.distinct(2)

// 3.4 触发计算,查看运行结果

res.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:

五集合操作类算子

intersection算子

intersection这个算子操作对源RDD和参数RDD求交集后返回一个新的RDD。

案例实现:创建两个RDD,求两个RDD的交集。

object DoubleValue01_intersection {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3具体业务逻辑

//3.1 创建第一个RDD

val rdd1: RDD[Int] = sc.makeRDD(1 to 4)

//3.2 创建第二个RDD

val rdd2: RDD[Int] = sc.makeRDD(4 to 8)

//3.3 计算第一个RDD与第二个RDD的交集并打印

val res: RDD[Int] = rdd1.intersection(rdd2)

//3.4 触发计算,查看运行结果

res.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:

subtract算子

subtract算子是计算差的一种函数,去除两个RDD中相同元素,不同的RDD将保留下来。

案例实现:创建两个RDD,求第一个RDD与第二个RDD的差集。

object DoubleValue03_subtract {

def main(args: Array[String]): Unit = {

//1.创建SparkConf并设置App名称

val conf: SparkConf = new SparkConf().setAppName("SparkCoreTest").setMaster("local[*]")

//2.创建SparkContext,该对象是提交Spark App的入口

val sc: SparkContext = new SparkContext(conf)

//3具体业务逻辑

//3.1 创建第一个RDD

val rdd: RDD[Int] = sc.makeRDD(1 to 4)

//3.2 创建第二个RDD

val rdd1: RDD[Int] = sc.makeRDD(4 to 8)

//3.3 计算第一个RDD与第二个RDD的差集

val res: RDD[Int] = rdd.subtract(rdd1)

// 3.4 触发计算,查看运行结果

res.collect()

Thread.sleep(99999)

//4.关闭连接

sc.stop()

}

}

运行结果截图:

六总结

Spark的shuffle算子主要包括去重算子、byKey聚合类算子、排序算子、重分区算子、和集合操作类算子。

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码