spark为什么比MapReduce速度快

会有一股神秘感。 提交于 2020-03-08 00:01:10

比mapreduce在内存中快100倍, 比mapreduce在磁盘中快10倍

重要原因:

1)mapreduce中间结果数据只能够保存在磁盘,spark可以保存在内存中。
比如说一个任务有2个job,在mapreduce中会存在shuffle,同样spark里面也会存在shuffle

      * 它们的shuffle产生的数据都会落地到磁盘

    * mapreduce中前面的job运行完成后,当前该job的结果只能保存在磁盘,后面的job需要依赖于前面job的结果,这个时候只能进行大量的磁盘io操作

(2)mapreduce里面如果有大量的任务(Map任务和Reduce任务),比如说此时一共有1000个任务,每一个任务都是以进程的方式运行在yarn中。在spark中同样也有1000个任务,每一个任务都是以线程方式运行在spark集群中,开启一个进程跟开启一个线程代价和时间都是不一样的。进程的开启需要的资源远远大于线程。

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!