Applying pandas lambda in Spark with RDD

前端 未结 0 730
闹比i
闹比i 2021-01-12 19:03

I am trying to do my previous pandas code

df["SC_3"] = df[subset_columns].apply(lambda row: (row.value_counts() >= 3).any(), axis=1)
相关标签:
回答
  • 消灭零回复
提交回复
热议问题