比mapreduce在内存中快100倍, 比mapreduce在磁盘中快10倍
重要原因:
1)mapreduce中间结果数据只能够保存在磁盘,spark可以保存在内存中。
比如说一个任务有2个job,在mapreduce中会存在shuffle,同样spark里面也会存在shuffle
* 它们的shuffle产生的数据都会落地到磁盘
* mapreduce中前面的job运行完成后,当前该job的结果只能保存在磁盘,后面的job需要依赖于前面job的结果,这个时候只能进行大量的磁盘io操作
(2)mapreduce里面如果有大量的任务(Map任务和Reduce任务),比如说此时一共有1000个任务,每一个任务都是以进程的方式运行在yarn中。在spark中同样也有1000个任务,每一个任务都是以线程方式运行在spark集群中,开启一个进程跟开启一个线程代价和时间都是不一样的。进程的开启需要的资源远远大于线程。
来源:CSDN
作者:弗瑞得姆
链接:https://blog.csdn.net/aiyin9511/article/details/104717716