今天在用spark-shell测试的时候,发现报了这个错误,怎么也没想明白是什么原因。
可能是spark默认使用的压缩方式是lz4的,但是jar包又不缺,所以没有弄懂,后续弄懂了再来修改博客
目前的解决方案:
将压缩方式改成snappy,这样就不报错了,暂时能用
./spark-shell --master local[2] --conf spark.io.compression.codec=snappy
来源:CSDN
作者:Piggy-George
链接:https://blog.csdn.net/zhc74110/article/details/104780630