我想用自定义agg函数对我的spark df进行groupBy。
def gini(list_of_values):
sth is processing here
return number output
我想得到这样的结果。
df.groupby('activity')['mean_event_duration_in_hours].agg(gini)
能否请您帮助我解决这个问题?
![]() |
帅气的领带 · 【Pyspark ...· 1 月前 · |
![]() |
时尚的蘑菇 · pyspark的窗口函数--Window、o ...· 1 月前 · |
![]() |
知识渊博的豆芽 · nginx正向代理-内网服务器通过代理服务器 ...· 10 月前 · |
![]() |
仗义的烈酒 · Convert JavaScript to ...· 1 年前 · |
![]() |
豪爽的萝卜 · Python中小括号( )、中括号[ ...· 1 年前 · |
![]() |
刀枪不入的小蝌蚪 · 「es存储数据超时」相关问答|文档|产品|活 ...· 1 年前 · |
![]() |
奔放的熊猫 · HttpContent.ReadAsStri ...· 1 年前 · |