博客
关于我
RDD partitioner入门详解
阅读量:648 次
发布时间:2019-03-15

本文共 1163 字,大约阅读时间需要 3 分钟。

什么是分区器?

在Spark的 RDD(弹性分布式数据集)中,分区器是一个属性,默认值为`None`。它可以被子类重写

类似代码示例:  ```scala  @transient  val partitioner: Option[Partitioner] = None  ```  这是定义一个可选的分区器属性的示例,值默认为`None`

分区器的作用

分区器决定 RDD 的分区方式。具体的分区方式决定了数据在集群中的分布情况。你可以通过设置分区器来测试不同的分区方法。

默认情况下,分区器为`None`。如下代码可以查看默认分区器的情况:  ```scala  object RDDTest extends App {    val conf = new SparkConf().setAppName("wordcount").setMaster("local")    val sc = new SparkContext(conf)    val lines: RDD[String] = sc.textFile("D:\\tmp", 2)    println(lines.partitioner) // 输出: None  }  ```  代码解释:默认情况下,partitioner 属性的值是`None`

(注:示例代码中,`D:\\tmp` 路径需要根据实际情况调整)

自定义分区器的示例

对于键值对形式的 RDD,可以通过设置自定义的分区器来重新定义分区方式。以下是一个常用的分区器类型——哈希分区器。

代码示例:  ```scala  object RDDTest extends App {    val conf = new SparkConf().setAppName("wordcount").setMaster("local")    val sc = new SparkContext(conf)    private val rdd: RDD[Int] = sc.parallelize(Array(1, 2, 3))    private val value: RDD[(Int, Int)] = rdd.map((x: Int) => (x, 1)).partitionBy(new HashPartitioner(3))    println(value.partitioner) // 输出: Some(org.apache.spark.HashPartitioner@3)  }  ```  代码解释:创建了一个 RDD 并通过`partitionBy`方法设置了哈希分区器。hashPartitioner 参数指定了分区的数量(这里为3)。因此,分区器属性将包含一个哈希分区器实例

转载地址:http://wxsmz.baihongyu.com/

你可能感兴趣的文章
SpamSieve for mac(邮件过滤器)
查看>>
炫酷的圣诞球徽标AE模板
查看>>
uFocus for Mac(mac文本编辑器)
查看>>
2017CS231n笔记5.CNN
查看>>
Linux系统安装Nodejs
查看>>
vue项目报错集合
查看>>
图片链接
查看>>
LINUX-WIFI无线接入的一些东西
查看>>
word文档手写字母总会大写问题
查看>>
Redis中的key
查看>>
Andriod进阶之路 - DataBinding的简单使用
查看>>
juc-09-控制并发流程工具类
查看>>
第一节 docker安装
查看>>
Linux系统时间与硬件时间及时间同步
查看>>
Django静态文件的加载以及STATIC_URL、 STATIC_ROOT 、STATICFILES_DIRS的区别
查看>>
Spring 和 DI 依赖注入
查看>>
中序线索二叉树的遍历
查看>>
文字策略游戏 android studio(学习intent,textview,等等)
查看>>
laravel server error 服务器内部错误
查看>>
17_注册Github账号
查看>>