成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Spark的Standalone模式部署

數據庫 Spark
首先,下載并解壓縮Spark的源碼,切換到解壓縮所生成的目錄,運行部署包生成程序make-distribution.sh。就可以開始Standalone模式部署過程了。

1:Spark Standalone Mode安裝

A:部署包生成

首先,下載并解壓縮Spark的源碼,切換到解壓縮所生成的目錄,運行部署包生成程序make-distribution.sh:

  1. ./make-distribution.sh --hadoop 2.2.0 --with-yarn --tgz 

spark源碼根目錄下的make-distribution.sh可以帶以下參數:

--tgz:在根目錄下生成 spark-$VERSION-bin.tar.gz,不加參數是不生成tgz文件,只生成/dist目錄。

--hadoop VERSION:打包時所用的Hadoop版本號,不加參數時為1.0.4。

--with-yarn:是否支持Hadoop YARN,不加參數時為不支持yarn。

--with-tachyon:是否支持內存文件系統Tachyon,不加參數時為不支持,此參數spark1.0之后提供。

運行成功后,在根目錄下生成類似spark-0.9.0-incubating-hadoop_2.2.0-bin.tar.gz的部署包,不過該部署包只帶有最基本的Spark運行文件,不包含例程和源代碼。如果需要例程和源代碼,請使用官方提供的二進制部署包。

筆者在百度云盤上提供了spark0.90、spark0.91和spark1.0-SNAPHOT的部署包,其中spark1.0-SNAPHOT還提供了支持Tachyon的部署包。

B:規劃

虛擬機hadoop1(IP地址為192.168.100.171)作為Master

虛擬機hadoop2(IP地址為192.168.100.172)、hadoop3(IP地址為192.168.100.173)、hadoop4(IP地址為192.168.100.174)、hadoop5(IP地址為192.168.100.175)作為slave

由于hadoop1、hadoop2、hadoop3、hadoop4、hadoop5之前已經安裝了hadoop2.2.0集群,所以省卻了安裝JAVA、建立SSH無密碼登錄過程。當然,spark集群可以獨立于hadoop集群外安裝,不過需要安裝JAVA、建立SSH無密碼登錄,具體過程可以參照hadoop2.2.0測試環境搭建

C:在Master上生成安裝目錄

將生成的spark-0.9.0-incubating-hadoop_2.2.0-bin.tar.gz文件復制到Master(即hadoop1)上并解壓

[root@hadoop1 hadoop]# tar zxf spark-0.9.0-incubating-hadoop_2.2.0-bin.tar.gz

[root@hadoop1 hadoop]# mv spark-0.9.0-incubating spark090

[root@hadoop1 hadoop]# cd spark090

[root@hadoop1 spark090]# ls -lsa

Spark的Standalone 模式部署 - mmicky - mmicky 的博客

D:配置集群文件

[root@hadoop1 spark090]# vi conf/slaves

[root@hadoop1 spark090]# cat conf/slaves 

hadoop2
hadoop3
hadoop4
hadoop5

[root@hadoop1 spark090]# vi conf/spark-env.sh

[root@hadoop1 spark090]# cat conf/spark-env.sh

export SPARK_MASTER_IP=hadoop1
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g
export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}

E:派發安裝文件到slaves

[root@hadoop1 spark090]# cd ..

[root@hadoop1 hadoop]# chown -R hadoop:hadoop spark090

[root@hadoop1 hadoop]# su - hadoop

[hadoop@hadoop1 ~]$ cd /app/hadoop/

[hadoop@hadoop1 hadoop]$ scp -r spark090 hadoop2:/app/hadoop/

[hadoop@hadoop1 hadoop]$ scp -r spark090 hadoop3:/app/hadoop/

[hadoop@hadoop1 hadoop]$ scp -r spark090 hadoop4:/app/hadoop/

[hadoop@hadoop1 hadoop]$ scp -r spark090 hadoop5:/app/hadoop/

F:啟動集群

[hadoop@hadoop1 hadoop]$ cd spark090

[hadoop@hadoop1 spark090]$ sbin/start-all.sh

通過瀏覽器訪問http://hadoop1:8080可以監控spark Standalone集群

Spark的Standalone 模式部署 - mmicky - mmicky 的博客

2:關于spark-shell連接到spark Standalone集群

如果要啟動spark-shell連接到spark Standalone集群,有兩種方法:

a:使用MASTER=spark://hadoop1:7077 bin/spark-shell啟動

b:配置在conf/spark-env.sh增加以下幾行:

export SPARK_MASTER_IP=192.168.1.171

export SPARK_MASTER_PORT=7077

export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}

然后使用使用./spark-shell啟動

如果是遠程客戶端來連接到spark Standalone集群的話,部署目錄要和集群的部署目錄一致。

3:關于Spark Standalone Mode的運行

A:資源調度

Spark Standalone Cluster目前只支持FIFO方式調度,不過,允許多個并發用戶,通過控制每個應用程序可獲得的***資源數。默認情況下,一次只運行一個應用程序,應用程序使用集群中的所有內核,不過可以通過System.setProperty(“spark.cores.max”,“10”)設置使用的內核數,這個值必須在初始化SparkContext之前設置。 

B:監控和日志

Spark Standalone Cluster可以通過Web UI來監控集群,Master和每個Worker都有各自的Web UI顯示統計數據。

Spark運行的job明細在$SPARK_HOME/work(由參數SPARK_WORKER_DIR設定)。當一個job提交后,spark會分發給worker,在每個節點的$SPARK_HOME/work/jodID/executorID建立stdout和stderr目錄作為job日志輸出。

C:和Hadoop并用

Spark可以作為獨立的服務,在已有的Hadoop集群設備上并行,并通過hdfs://URL存取Hadoop數據。當然,Spark也可以建成一個獨立的集群,通過網絡存取Hadoop數據,只不過會比本地硬盤存取速度要慢,對于處于本地網絡的兩個集群,這不是問題。

D:高可用

Spark存在單點故障的問題,要解決這個問題,有兩個方案:通過 Zookeeper待機Master和本地文件系統的單點恢復,具體參考http://spark.incubator.apache.org/docs/latest/spark-standalone.html

4:測試

由于缺少例子,所以使用官方提供的二進制安裝包重新部署了一下,并啟動。

./run-example org.apache.spark.examples.SparkKMeans spark://hadoop1:7077 ./kmeans_data.txt 2 1

也可以直接在spark shell里調試程序。

責任編輯:彭凡 來源: 網易博客
相關推薦

2014-04-16 13:47:43

SparkYarn

2020-09-22 18:01:22

SparkStandalone運行

2014-07-17 14:09:31

Spark

2016-09-13 14:05:24

Spark集群管理模式

2023-06-07 17:04:48

集群Standalone

2014-04-16 10:41:58

Spark

2020-03-06 16:00:04

KubernetesSpark容器

2019-06-11 09:50:07

SparkBroadcast代碼

2020-09-14 08:30:44

Kubernetes容器

2014-09-16 10:13:27

Spark搭建環境

2023-06-06 19:24:06

KubernetesSpark

2020-05-20 13:20:45

KubernetesSpark數據

2024-06-06 08:32:52

.NET框架代碼

2012-06-10 17:31:55

無線網絡捷網絡

2014-01-07 11:24:45

SparkHadoop

2021-10-29 10:58:10

WorkerMasterExecutor

2020-09-06 22:33:04

WPA身份驗證網絡安全

2023-04-18 08:45:28

MongoDB部署模式

2010-02-22 18:12:25

CentOS vsft

2010-02-01 11:12:27

mod_python模
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 毛片网站免费观看 | 亚洲va在线va天堂va狼色在线 | 91夜色在线观看 | 色偷偷噜噜噜亚洲男人 | 国产伦精品一区二区三区照片91 | 黄色片免费 | 国产成人精品一区二三区在线观看 | 在线久草| 亚洲国产精品久久久久久 | 搞av.com| 国产高清免费视频 | 成人午夜免费在线视频 | 国产日韩精品一区 | 天天干狠狠| 日韩视频在线观看中文字幕 | 国产激情免费视频 | 完全免费在线视频 | 麻豆国产一区二区三区四区 | 国产1区2区| 亚洲精品中文字幕在线观看 | 亚洲成人av一区二区 | 久久久久久久久久久国产 | 日韩视频精品在线 | 午夜av成人 | 亚洲免费精品 | 国产精品久久久久久久久久久免费看 | 国偷自产av一区二区三区 | 亚洲精品视频免费观看 | 久久精品国产一区二区电影 | 高清一区二区三区 | 成人毛片视频免费 | 国产精品自产av一区二区三区 | 国产亚洲成av人在线观看导航 | 成人在线精品 | 中国一级大毛片 | 暖暖日本在线视频 | 国产www.| 二区三区视频 | 欧美日韩高清在线一区 | 成人av久久| 91在线导航 |