亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Apache Spark 2.0 在作業(yè)完成時(shí)卻花費(fèi)很長時(shí)間結(jié)束

 更新時(shí)間:2019年06月14日 14:58:52   作者:胖頭魚  
大家在使用 Apache Spark 2.x 的時(shí)候可能會(huì)遇到這種現(xiàn)象:雖然我們的 Spark Jobs 已經(jīng)全部完成了,但是我們的程序卻還在執(zhí)行。怎么回事呢?下面小編通過實(shí)例代碼給大家介紹下

現(xiàn)象

大家在使用 Apache Spark 2.x 的時(shí)候可能會(huì)遇到這種現(xiàn)象:雖然我們的 Spark Jobs 已經(jīng)全部完成了,但是我們的程序卻還在執(zhí)行。比如我們使用 Spark SQL 去執(zhí)行一些 SQL,這個(gè) SQL 在最后生成了大量的文件。然后我們可以看到,這個(gè) SQL 所有的 Spark Jobs 其實(shí)已經(jīng)運(yùn)行完成了,但是這個(gè)查詢語句還在運(yùn)行。通過日志,我們可以看到 driver 節(jié)點(diǎn)正在一個(gè)一個(gè)地將 tasks 生成的文件移動(dòng)到最終表的目錄下面,當(dāng)我們作業(yè)生成的文件很多的情況下,就很容易產(chǎn)生這種現(xiàn)象。本文將給大家介紹一種方法來解決這個(gè)問題。

為什么會(huì)造成這個(gè)現(xiàn)象

Spark 2.x 用到了 Hadoop 2.x,其將生成的文件保存到 HDFS 的時(shí)候,最后會(huì)調(diào)用了 saveAsHadoopFile,而這個(gè)函數(shù)在里面用到了 FileOutputCommitter,如下:

問題就出在了 Hadoop 2.x 的 FileOutputCommitter 實(shí)現(xiàn)FileOutputCommitter 里面有兩個(gè)值得注意的方法:commitTask 和 commitJob。在 Hadoop 2.x 的FileOutputCommitter 實(shí)現(xiàn)里面,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)控制著 commitTask 和 commitJob 的工作方式。具體代碼如下(為了說明方便,我去掉了無關(guān)緊要的語句,完整代碼可以參見 FileOutputCommitter.java):

大家可以看到 commitTask 方法里面,有個(gè)條件判斷 algorithmVersion == 1,這個(gè)就是 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值,默認(rèn)為1;如果這個(gè)參數(shù)為1,那么在 Task 完成的時(shí)候,是將 Task 臨時(shí)生成的數(shù)據(jù)移到 task 的對(duì)應(yīng)目錄下,然后再在 commitJob 的時(shí)候移到最終作業(yè)輸出目錄,而這個(gè)參數(shù),在 Hadoop 2.x 的默認(rèn)值就是 1!這也就是為什么我們看到 job 完成了,但是程序還在移動(dòng)數(shù)據(jù),從而導(dǎo)致整個(gè)作業(yè)尚未完成,而且最后是由 Spark 的 Driver 執(zhí)行 commitJob 函數(shù)的,所以執(zhí)行的慢也是有到底的。

而我們可以看到,如果我們將 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值設(shè)置為 2,那么在 commitTask 執(zhí)行的時(shí)候,就會(huì)調(diào)用 mergePaths 方法直接將 Task 生成的數(shù)據(jù)從 Task 臨時(shí)目錄移動(dòng)到程序最后生成目錄。而在執(zhí)行 commitJob 的時(shí)候,直接就不用移動(dòng)數(shù)據(jù)了,自然會(huì)比默認(rèn)的值要快很多。

注意,其實(shí)在 Hadoop 2.7.0 之前版本,我們可以將 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)設(shè)置為非1的值就可以實(shí)現(xiàn)這個(gè)目的,因?yàn)槌绦蚶锩娌]有限制這個(gè)值一定為2,。不過到了 Hadoop 2.7.0,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值必須為1或2,具體參見 MAPREDUCE-4815。

怎么在 Spark 里面設(shè)置這個(gè)參數(shù)

問題已經(jīng)找到了,我們可以在程序里面解決這個(gè)問題。有以下幾種方法:

  • 直接在 conf/spark-defaults.conf 里面設(shè)置 spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version 2,這個(gè)是全局影響的。
  • 直接在 Spark 程序里面設(shè)置,spark.conf.set("mapreduce.fileoutputcommitter.algorithm.version", "2"),這個(gè)是作業(yè)級(jí)別的。
  • 如果你是使用 Dataset API 寫數(shù)據(jù)到 HDFS,那么你可以這么設(shè)置 dataset.write.option("mapreduce.fileoutputcommitter.algorithm.version", "2")。

不過如果你的 Hadoop 版本為 3.x,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的默認(rèn)值已經(jīng)設(shè)置為2了,具體參見 MAPREDUCE-6336 和 MAPREDUCE-6406。

因?yàn)檫@個(gè)參數(shù)對(duì)性能有一些影響,所以到了 Spark 2.2.0,這個(gè)參數(shù)已經(jīng)記錄在 Spark 配置文檔里面了 configuration.html,具體參見 SPARK-20107。

總結(jié)

以上所述是小編給大家介紹的Apache Spark 2.0 在作業(yè)完成時(shí)卻花費(fèi)很長時(shí)間結(jié)束,希望對(duì)大家有所幫助!

相關(guān)文章

  • Centos8搭建基于kdc加密的nfs

    Centos8搭建基于kdc加密的nfs

    大家好,本篇文章主要講的是Centos8搭建基于kdc加密的nfs,感興趣的同學(xué)趕快來看一看吧,對(duì)你有幫助的話記得收藏一下,方便下次瀏覽
    2021-12-12
  • 詳解Linux下配置DNS服務(wù)器

    詳解Linux下配置DNS服務(wù)器

    本篇文章主要介紹了Linux下配置DNS服務(wù)器,具有一定的參考價(jià)值,有需要的可以了解一下。
    2016-11-11
  • linux命令下jq的用法及說明

    linux命令下jq的用法及說明

    這篇文章主要介紹了linux命令下jq的用法及說明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2023-12-12
  • 使用yum查看工具lspci所在包并安裝的方法(詳解)

    使用yum查看工具lspci所在包并安裝的方法(詳解)

    下面小編就為大家?guī)硪黄褂脃um查看工具lspci所在包并安裝的方法(詳解)。小編覺得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧
    2016-11-11
  • 使用FileZilla從Linux系統(tǒng)下載文件的方法

    使用FileZilla從Linux系統(tǒng)下載文件的方法

    最近做項(xiàng)目,遇到這樣的需求,要求將Linux系統(tǒng)的的某個(gè)文件夾下載到我Windows系統(tǒng)某個(gè)文件夾里,怎么實(shí)現(xiàn)這個(gè)功能呢?下面腳本之家小編給大家?guī)砹耸褂肍ileZilla從Linux系統(tǒng)下載文件的方法,感興趣的朋友一起看看吧
    2018-07-07
  • Virtualbox安裝Lubuntu 18.04 64位的圖文教程

    Virtualbox安裝Lubuntu 18.04 64位的圖文教程

    這篇文章主要為大家詳細(xì)介紹了Virtualbox安裝Lubuntu 18.04 64位的圖文教程,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-07-07
  • 新版VPS主機(jī)管理面板WDCP安裝及使用體驗(yàn)-國產(chǎn)簡單易用型VPS面板

    新版VPS主機(jī)管理面板WDCP安裝及使用體驗(yàn)-國產(chǎn)簡單易用型VPS面板

    這篇文章主要介紹了新版VPS主機(jī)管理面板WDCP安裝及使用體驗(yàn)-國產(chǎn)簡單易用型VPS面板,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2017-07-07
  • CentOS8.0 網(wǎng)絡(luò)配置的實(shí)現(xiàn)

    CentOS8.0 網(wǎng)絡(luò)配置的實(shí)現(xiàn)

    這篇文章主要介紹了CentOS8.0 網(wǎng)絡(luò)配置的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2019-10-10
  • ssh修改超時(shí)自動(dòng)登出時(shí)間的方法

    ssh修改超時(shí)自動(dòng)登出時(shí)間的方法

    這篇文章主要介紹了關(guān)于linux中ssh超時(shí)自動(dòng)登出時(shí)間的設(shè)置方法,以避免總是被強(qiáng)行退出。需要的朋友可以參考借鑒,下面來一起看看吧。
    2017-02-02
  • Linux中top命令輸出詳解

    Linux中top命令輸出詳解

    這篇文章主要給大家介紹了關(guān)于Linux中top命令輸出的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家學(xué)習(xí)或者使用Linux系統(tǒng)具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來一起學(xué)習(xí)學(xué)習(xí)吧
    2019-07-07

最新評(píng)論