博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark进行groupby之后值转成list
阅读量:7059 次
发布时间:2019-06-28

本文共 264 字,大约阅读时间需要 1 分钟。

spark的rdd进行groupby以后有时需要对value处理

可以这样处理:

grouped=rdd.groupBy(lambda x: x[0]).map(lambda x : (x[0], list(x[1])))

 

之后可以循环处理 grouped里的对象,类似:

keys=grouped.keys().collect()for key in keys: value=grouped.lookup(key)

 

转载于:https://www.cnblogs.com/deityjiangyu/p/7479805.html

你可能感兴趣的文章
keepalive配置
查看>>
使用Ansible部署LAMP环境
查看>>
mac下 连接windows远程桌面
查看>>
如何在LoadRunner中使用winsocket协议
查看>>
部署DNS服务器之主要区域
查看>>
Android防反编译
查看>>
数字医学影像工作站相关资料汇总
查看>>
20051008网络工程师必懂的专业术语
查看>>
2012年我的十大工程7——阅读工程
查看>>
windows调整网卡访问顺序
查看>>
我的php学习笔记(42) PHP通过mail()或Socket发从邮件
查看>>
Mysql-主从精简配置
查看>>
ROM 、RAM和FLASH 的区别
查看>>
深入挖掘vsftpd服务
查看>>
使用smtplib发送E-mail
查看>>
C#窗体控件更新(四)
查看>>
solr部署
查看>>
Linux命令之umask
查看>>
浏览器对象的各种宽高
查看>>
python学习笔记--虫师
查看>>