spark rdd的创建方式

spark rdd(弹性分布式数据集)有多种创建方式
简单来说有三种

1.从本地集合创建

val numbers = sc.parallelize(Array(1,2,3,4))

2.从文件系统读取

val testFile = sc.textFile(“hdfs://localhost:9000/user/hadoop/data.txt”)

3.从现有rdd创建而来

val numbersRDD = sc.parallelize(Array(1,2,3,4,5))
val doubleNumbersRDD = numbersRDD.map(_ * 2)

总的来说 rdd这里指的是分布式数据集
所以创建 都需要来自于其他数据集合

所以其他会有 从数据库 网络源 其他数据源
广播变量或者累加器

这里的rdd指的是分布式数据集 就是数据切片,而计算逻辑,叫做rdd算子。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部