pyspark corrupt_record while reading json file

前端 未结 0 787
有刺的猬
有刺的猬 2021-02-05 03:39

I have a json which can\'t be read by spark(spark.read.json("xxx").show())

{\'event_date_utc\': None,\'deleted\': False, \'cost\':1 , \'name\

相关标签:
回答
  • 消灭零回复
提交回复
热议问题