且构网

分享程序员开发的那些事...
且构网 - 分享程序员编程开发的那些事

如何对pyspark中的spark数据帧中的多列求和?

更新时间:2023-11-18 21:38:34

试试这个:

df = df.withColumn('result', sum(df[col] for col in df.columns))

df.columns 将是来自 df 的列列表.

df.columns will be list of columns from df.