成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數據Spark運行環境:Standalone模式與配置詳解

大數據 Spark
這里我們來看看只使用Spark自身節點運行的集群模式,也就是我們所謂的獨立部署(Standalone)模式。Spark的Standalone模式體現了經典的master-slave模式。

大數據Spark運行環境:Standalone模式與配置詳解

大數據Spark運行環境:Standalone模式與相關配置詳解

Standalone模式

這里我們來看看只使用Spark自身節點運行的集群模式,也就是我們所謂的獨立部署(Standalone)模式。Spark的Standalone模式體現了經典的master-slave模式。

集群規劃:

 

大數據Spark運行環境:Standalone模式與配置詳解

1 解壓縮文件

將spark-3.0.0-bin-hadoop3.2.tgz.tgz文件上傳到Linux并解壓縮在指定位置

  1. tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module 
  2. cd /opt/module  
  3. mv spark-3.0.0-bin-hadoop3.2 spark-standalone 

2 修改配置文件

1) 進入解壓縮后路徑的conf目錄,修改slaves.template文件名為slaves

  1. mv slaves.template slaves 

2) 修改slaves文件,添加work節點

  1. hadoop102hadoop103hadoop104 

3) 修改spark-env.sh.template文件名為spark-env.sh

  1. mv spark-env.sh.template spark-env.sh 

4) 修改spark-env.sh文件,添加JAVA_HOME環境變量和集群對應的master節點

  1. export JAVA_HOME=/opt/module/jdk1.8.0_212 
  2. SPARK_MASTER_HOST=hadoop102SPARK_MASTER_PORT=7077 

注意:7077端口,相當于hadoop3.x內部通信的8020端口,此處的端口需要確認自己的虛擬機配置

5) 分發spark-standalone目錄

  1. xsync spark-standalone 

3 啟動集群

1) 執行腳本命令:

  1. sbin/start-all.sh 

2) 查看三臺服務器運行進程

  1. ================hadoop102================ 
  2. 3330 Jps 
  3. 3238 Worker 
  4. 3163 Master 
  5. ================hadoop103================ 
  6. 2966 Jps 
  7. 2908 Worker 
  8. ================hadoop104================ 
  9. 2978 Worker 
  10. 3036 Jps 

3) 查看Master資源監控Web UI界面: http://hadoop102:8080

4 提交應用

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 
  • --class表示要執行程序的主類
  • --master spark://hadoop102:7077 獨立部署模式,連接到Spark集群
  • spark-examples_2.12-3.0.0.jar 運行類所在的jar包
  • 數字10表示程序的入口參數,用于設定當前應用的任務數量

執行任務時,會產生多個Java進程

 

大數據Spark運行環境:Standalone模式與配置詳解

執行任務時,默認采用服務器集群節點的總核數,每個節點內存1024M。

5 配置歷史服務

由于spark-shell停止掉后,集群監控hadoop102:4040頁面就看不到歷史任務的運行情況,所以開發時都配置歷史服務器記錄任務運行情況。

1) 修改spark-defaults.conf.template文件名為spark-defaults.conf

  1. mv spark-defaults.conf.template spark-defaults.conf 

2) 修改spark-default.conf文件,配置日志存儲路徑

  1. spark.eventLog.enabled          true 
  2. spark.eventLog.dir               hdfs://hadoop102:8020/directory 

注意:需要啟動hadoop集群,HDFS上的directory目錄需要提前存在。

  1. sbin/start-dfs.sh 
  2. hadoop fs -mkdir /directory 

3) 修改spark-env.sh文件, 添加日志配置

  1. export SPARK_HISTORY_OPTS=" 
  2. -Dspark.history.ui.port=18080 
  3. -Dspark.history.fs.logDirectory=hdfs://hadoop102:8020/directory 
  4. -Dspark.history.retainedApplications=30" 

注:寫成一行!!空格隔開!!!

  • 參數1含義:WEB UI訪問的端口號為18080
  • 參數2含義:指定歷史服務器日志存儲路徑
  • 參數3含義:指定保存Application歷史記錄的個數,如果超過這個值,舊的應用程序信息將被刪除,這個是內存中的應用數,而不是頁面上顯示的應用數。

4) 分發配置文件

  1. xsync conf 

5) 重新啟動集群和歷史服務

  1. sbin/start-all.sh 
  2. sbin/start-history-server.sh 

6) 重新執行任務

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 

7) 查看歷史服務:http://hadoop102:18080

6 配置高可用(HA)

所謂的高可用是因為當前集群中的Master節點只有一個,所以會存在單點故障問題。所以為了解決單點故障問題,需要在集群中配置多個Master節點,一旦處于活動狀態的Master發生故障時,由備用Master提供服務,保證作業可以繼續執行。這里的高可用一般采用Zookeeper設置

集群規劃:

 

大數據Spark運行環境:Standalone模式與配置詳解

1) 停止集群

  1. sbin/stop-all.sh 

2) 啟動Zookeeper

3) 修改spark-env.sh文件添加如下配置

  1. 注釋如下內容: 
  2. #SPARK_MASTER_HOST=hadoop102#SPARK_MASTER_PORT=7077 
  3.  添加如下內容:#Master監控頁面默認訪問端口為8080,但是會和Zookeeper沖突,所以改成8989,也可以自定義,訪問UI監控頁面時請注意 
  4. SPARK_MASTER_WEBUI_PORT=8989 
  5.  export SPARK_DAEMON_JAVA_OPTS=" 
  6. -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop102,hadoop103,hadoop104 -Dspark.deploy.zookeeper.dir=/spark" 

注:寫成一行!!空格隔開!!!

4) 分發配置文件

  1. xsync conf/ 

5) 啟動集群

  1. sbin/start-all.sh 

6) 啟動hadoop103的單獨Master節點,此時hadoop103節點Master狀態處于備用狀態

  1. [bigdata@hadoop103 spark-standalone]$ sbin/start-master.sh 

7) 提交應用到高可用集群

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077,hadoop103:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 

8) 停止hadoop102的Master資源監控進程

9) 查看hadoop103的Master 資源監控Web UI,稍等一段時間后,hadoop103節點的Master狀態提升為活動狀態

責任編輯:未麗燕 來源: 今日頭條
相關推薦

2014-04-16 14:04:34

SparkStandalone

2021-03-15 14:02:21

大數據數據開發Spark

2014-09-16 10:13:27

Spark搭建環境

2023-06-07 17:04:48

集群Standalone

2022-10-14 15:44:03

大數據Hadoop

2017-05-31 14:35:17

大數據運行環境數據管道

2010-09-17 16:54:26

Java運行環境

2019-07-22 10:45:31

2011-06-23 18:37:02

Qt 數據庫

2010-07-14 16:16:16

Telnet模式

2009-07-09 14:57:08

JDK環境配置

2014-07-04 10:01:08

Spark集群

2017-10-11 11:10:02

Spark Strea大數據流式處理

2011-08-15 23:14:34

Oraclerman環境配置

2014-04-04 10:53:04

2009-07-15 11:20:05

MyEclipse F

2020-05-26 15:05:30

Spark安裝環境

2014-05-16 10:55:47

Spark

2011-09-14 09:40:06

Android開發

2009-03-03 20:44:06

桌面虛擬化Xendesktop虛擬化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久综合网 | 欧美久久国产精品 | 亚洲av毛片 | 国产精品久久久久久久久动漫 | 亚洲欧美日韩系列 | 一区二区精品 | 国产精品一区二区三级 | 国产精品永久 | 日韩欧美视频在线 | 日本国产精品视频 | 一区二区三区中文字幕 | 国产a区| 最近免费日本视频在线 | xxx.在线观看 | 国产激情视频在线观看 | 亚洲二区视频 | 日韩欧美三级在线 | 99热精品在线 | 特黄av| 国产综合网址 | 国产成人精品免高潮在线观看 | 国产一二区在线 | 亚洲视频在线看 | 亚洲网址 | 欧美中文字幕一区 | 国产精品污www一区二区三区 | 91精品国产91久久久 | 国产精品永久免费 | 91麻豆产精品久久久久久夏晴子 | 日本视频一区二区三区 | 亚洲人精品午夜 | 亚洲一区国产精品 | 亚洲在线一区二区 | 亚洲一区二区三区在线视频 | 波多野结衣先锋影音 | 色久电影 | 久久青| av免费入口 | 成人在线免费观看视频 | caoporn国产 | av大片|