成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置

今天就跟大家聊聊有關(guān)如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。

站在用戶的角度思考問題,與客戶深入溝通,找到德令哈網(wǎng)站設(shè)計(jì)與德令哈網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗(yàn),讓設(shè)計(jì)與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個(gè)性化、用戶體驗(yàn)好的作品,建站類型包括:成都網(wǎng)站建設(shè)、網(wǎng)站制作、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣、域名注冊、網(wǎng)絡(luò)空間、企業(yè)郵箱。業(yè)務(wù)覆蓋德令哈地區(qū)。

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與相關(guān)配置

Standalone模式

這里我們來看看只使用Spark自身節(jié)點(diǎn)運(yùn)行的集群模式,也就是我們所謂的獨(dú)立部署(Standalone)模式。Spark的Standalone模式體現(xiàn)了經(jīng)典的master-slave模式。

集群規(guī)劃:

如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置

1 解壓縮文件

將spark-3.0.0-bin-hadoop3.2.tgz.tgz文件上傳到Linux并解壓縮在指定位置

tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module cd /opt/module  mv spark-3.0.0-bin-hadoop3.2 spark-standalone

2 修改配置文件

1) 進(jìn)入解壓縮后路徑的conf目錄,修改slaves.template文件名為slaves

mv slaves.template slaves

2) 修改slaves文件,添加work節(jié)點(diǎn)

hadoop102hadoop103hadoop104

3) 修改spark-env.sh.template文件名為spark-env.sh

mv spark-env.sh.template spark-env.sh

4) 修改spark-env.sh文件,添加JAVA_HOME環(huán)境變量和集群對應(yīng)的master節(jié)點(diǎn)

export JAVA_HOME=/opt/module/jdk1.8.0_212 SPARK_MASTER_HOST=hadoop102SPARK_MASTER_PORT=7077

注意:7077端口,相當(dāng)于hadoop3.x內(nèi)部通信的8020端口,此處的端口需要確認(rèn)自己的虛擬機(jī)配置

5) 分發(fā)spark-standalone目錄

xsync spark-standalone

3 啟動集群

1) 執(zhí)行腳本命令:

sbin/start-all.sh

2) 查看三臺服務(wù)器運(yùn)行進(jìn)程

================hadoop102================ 3330 Jps 3238 Worker 3163 Master ================hadoop103================ 2966 Jps 2908 Worker ================hadoop104================ 2978 Worker 3036 Jps

3) 查看Master資源監(jiān)控Web UI界面: http://hadoop102:8080

4 提交應(yīng)用

bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://hadoop102:7077 \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10
  • --class表示要執(zhí)行程序的主類

  • --master spark://hadoop102:7077 獨(dú)立部署模式,連接到Spark集群

  • spark-examples_2.12-3.0.0.jar 運(yùn)行類所在的jar包

  • 數(shù)字10表示程序的入口參數(shù),用于設(shè)定當(dāng)前應(yīng)用的任務(wù)數(shù)量

執(zhí)行任務(wù)時(shí),會產(chǎn)生多個(gè)Java進(jìn)程

如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置

執(zhí)行任務(wù)時(shí),默認(rèn)采用服務(wù)器集群節(jié)點(diǎn)的總核數(shù),每個(gè)節(jié)點(diǎn)內(nèi)存1024M。

5 配置歷史服務(wù)

由于spark-shell停止掉后,集群監(jiān)控hadoop102:4040頁面就看不到歷史任務(wù)的運(yùn)行情況,所以開發(fā)時(shí)都配置歷史服務(wù)器記錄任務(wù)運(yùn)行情況。

1) 修改spark-defaults.conf.template文件名為spark-defaults.conf

mv spark-defaults.conf.template spark-defaults.conf

2) 修改spark-default.conf文件,配置日志存儲路徑

spark.eventLog.enabled          true spark.eventLog.dir               hdfs://hadoop102:8020/directory

注意:需要啟動hadoop集群,HDFS上的directory目錄需要提前存在。

sbin/start-dfs.sh hadoop fs -mkdir /directory

3) 修改spark-env.sh文件, 添加日志配置

export SPARK_HISTORY_OPTS=" -Dspark.history.ui.port=18080 -Dspark.history.fs.logDirectory=hdfs://hadoop102:8020/directory -Dspark.history.retainedApplications=30"

注:寫成一行!!空格隔開!!!

  • 參數(shù)1含義:WEB UI訪問的端口號為18080

  • 參數(shù)2含義:指定歷史服務(wù)器日志存儲路徑

  • 參數(shù)3含義:指定保存Application歷史記錄的個(gè)數(shù),如果超過這個(gè)值,舊的應(yīng)用程序信息將被刪除,這個(gè)是內(nèi)存中的應(yīng)用數(shù),而不是頁面上顯示的應(yīng)用數(shù)。

4) 分發(fā)配置文件

xsync conf

5) 重新啟動集群和歷史服務(wù)

sbin/start-all.sh sbin/start-history-server.sh

6) 重新執(zhí)行任務(wù)

bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://hadoop102:7077 \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10

7) 查看歷史服務(wù):http://hadoop102:18080

6 配置高可用(HA)

所謂的高可用是因?yàn)楫?dāng)前集群中的Master節(jié)點(diǎn)只有一個(gè),所以會存在單點(diǎn)故障問題。所以為了解決單點(diǎn)故障問題,需要在集群中配置多個(gè)Master節(jié)點(diǎn),一旦處于活動狀態(tài)的Master發(fā)生故障時(shí),由備用Master提供服務(wù),保證作業(yè)可以繼續(xù)執(zhí)行。這里的高可用一般采用Zookeeper設(shè)置

集群規(guī)劃:

如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置

1) 停止集群

sbin/stop-all.sh

2) 啟動Zookeeper

3) 修改spark-env.sh文件添加如下配置

注釋如下內(nèi)容: #SPARK_MASTER_HOST=hadoop102#SPARK_MASTER_PORT=7077  添加如下內(nèi)容:#Master監(jiān)控頁面默認(rèn)訪問端口為8080,但是會和Zookeeper沖突,所以改成8989,也可以自定義,訪問UI監(jiān)控頁面時(shí)請注意 SPARK_MASTER_WEBUI_PORT=8989  export SPARK_DAEMON_JAVA_OPTS=" -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop102,hadoop103,hadoop104 -Dspark.deploy.zookeeper.dir=/spark"

注:寫成一行!!空格隔開!!!

4) 分發(fā)配置文件

xsync conf/

5) 啟動集群

sbin/start-all.sh

6) 啟動hadoop103的單獨(dú)Master節(jié)點(diǎn),此時(shí)hadoop103節(jié)點(diǎn)Master狀態(tài)處于備用狀態(tài)

[bigdata@hadoop103 spark-standalone]$ sbin/start-master.sh

7) 提交應(yīng)用到高可用集群

bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://hadoop102:7077,hadoop103:7077 \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10

8) 停止hadoop102的Master資源監(jiān)控進(jìn)程

9) 查看hadoop103的Master 資源監(jiān)控Web UI,稍等一段時(shí)間后,hadoop103節(jié)點(diǎn)的Master狀態(tài)提升為活動狀態(tài)

看完上述內(nèi)容,你們對如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置有進(jìn)一步的了解嗎?如果還想了解更多知識或者相關(guān)內(nèi)容,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝大家的支持。

網(wǎng)頁標(biāo)題:如何進(jìn)行大數(shù)據(jù)Spark運(yùn)行環(huán)境中的Standalone模式與配置
文章地址:http://jinyejixie.com/article38/ppjspp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供微信小程序、網(wǎng)站排名、全網(wǎng)營銷推廣、微信公眾號定制開發(fā)、云服務(wù)器

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)