前言:一般我们列转行都是使用concat_ws函数或者concat函数,但是concat一般都是用于字符串的拼接,后续处理数据时并不方便。

需求:将两列数据按照设备id进行分组,每个设备有多个时间点位和对应值,将其一一对应,并以json形式存储。

设备id(device_name)点位值(point)

测量值(value)

key111.12
key121.32
key331.00

实现:

1、依旧需要对数据进行分组后聚合。由于有大量键值对,通过groupByKey进行分组

2、分组后得到(key, value[Iteratable])类型数据,对value进行转换后操作

import spark.implicits._

//定义数据源
val seq = Seq(
    ("key1","1","1.12"),
    ("key1","3","1.32"),
    ("key1","3","1.00")
).toDF("device","point","value")

//数据处理
seq.as[pointKey]
    .groupByKey(_.device)
    .mapGroups((key, value) => {
        val list = value.toList
        val map = new mutable.HashMap[String, String]()
        list.foreach(elem => map.put(elem.point, elem.value))

        //此时的数据格式为map格式
        //map转json
        implicit val formats: DefaultFormats.type = DefaultFormats
        val json = Serialization.write(map)
        (key, map, json)
    })



//样例类,用于装载
case class pointKey(
    device: String, point: String, value: String
)

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部