成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Spark:安裝及環境配置指南

大數據 Spark
本文主要介紹一下spark的安裝及環境配置。下載時需要注意的是在第1步選擇完spark版本之后的第2步“choose a package type ”時,spark與hadoop版本必須配合使用。

本文主要介紹一下spark的安裝及環境配置。

1、Apache spark下載

在瀏覽器輸入網址

https://spark.apache.org/downloads.html進入spark的下載頁面,如下圖所示:

 

Spark:安裝及環境配置指南

下載時需要注意的是在第1步選擇完spark版本之后的第2步“choose a package type ”時,spark與hadoop版本必須配合使用。因為spark會讀取hdfs文件內容而且spark程序還會運行在HadoopYARN上。所以必須按照我們目前安裝的hadoop版本來選擇package type。我們目前使用的hadoop版本為hadoop2.7.5,所以選擇Pre-built for Apache Hadoop 2.7 and later。

點擊第3步Download Spark后的連接

spark-2.1.2-bin-hadoop2.7.tgz進入下圖所示的頁面。在國內我們一般選擇清華的服務器下載,這下載速度比較快,連接地址

 

Spark:安裝及環境配置指南

2、安裝spark

通過WinSCP將

spark-2.1.2-bin-hadoop2.7.tgz上傳到master虛擬機的Downloads目錄下,然后解壓到用戶主目錄下并更改解壓后的文件名(改文件名目的是名字變短,容易操作)。解壓過程需要一點時間,耐心等待哈。

 

Spark:安裝及環境配置指南

解壓完成后通過ls命令查看當前用戶主目錄,如下圖所示增加了spark-2.1.2-bin-hadoop2.7文件目錄

 

Spark:安裝及環境配置指南

通過mv命令更改spark-2.1.2-bin-hadoop2.7名為spark

 

Spark:安裝及環境配置指南

3、配置spark環境變量

通過命令vim .bashrc編輯環境變量

 

Spark:安裝及環境配置指南

在文件末尾增加如下內容,然后保存并退出

 

Spark:安裝及環境配置指南

重新加載環境變量配置文件,使新的配置生效(僅限當前終端,如果退出終端新的環境變量還是不能生效,重啟虛擬機系統后變可永久生效)

 

Spark:安裝及環境配置指南

通過spark-shell展示spark是否正確安裝,Spark-shell是添加了一些spark功能的scala REPL交互式解釋器,啟動方式如下圖所示。啟動過程中會打印spark相關信息如版本。

 

Spark:安裝及環境配置指南

退出spark-shell使用命令:quit

 

Spark:安裝及環境配置指南

4、在其他節點安裝spark

在master節點安裝完成后只需復制spark文件目錄及.bashrc文件到其他節點即可,具體操作命令可按下圖操作

 

Spark:安裝及環境配置指南

 

Spark:安裝及環境配置指南

 

Spark:安裝及環境配置指南

最后重啟slave1、slave2即可使配置文件生效。到這里spark安裝完成,接下來就是根據spark運行模式來配置spark相關配置文件使集群正常工作。

5、配置spark相關文件

第一步:spark-env.sh文件

通過環境變量配置確定的Spark設置。環境變量從Spark安裝目錄下的conf/spark-env.sh腳本讀取。

可以在spark-env.sh中設置如下變量:

 

Spark:安裝及環境配置指南

Spark相關配置

 

Spark:安裝及環境配置指南

首先開啟三個虛擬機master 、slave1、slave2,接下來在master主機上配置,配置完成之后將spark/conf發送到其他節點即可。

我們先跳轉到spark/conf目錄下看看我們需要配置哪些文件。如下圖所示通過ls命令查看文件列表,我們今天主要用到的有spark-env.sh.template、slaves.template,我們還可以用log4j.properties.template來修改輸出信息。

 

Spark:安裝及環境配置指南

注意,當Spark安裝時,conf/spark-env.sh默認是不存在的。你可以復制

conf/spark-env.sh.template創建它。

 

Spark:安裝及環境配置指南

通過vim編輯器編輯spark-env.sh,在終端中我們可以只輸入前幾個字母然后按tab鍵來給我們自動補全。

 

Spark:安裝及環境配置指南

在文件末尾添加如下內容,保存并退出

 

Spark:安裝及環境配置指南

第二步:log4j.properties

spark在啟動過程中會有大量日志信息打印出來,如果我們只想看警告或者錯誤,而不是一般信息可以在log4j.properties中設置,同樣的spark為我們提供了一個模板文件,需要通過模板復制出log4j.properties

 

Spark:安裝及環境配置指南

設置方法為將文件第二行INFO改為WARN

 

Spark:安裝及環境配置指南

更改完成后文件內容如下圖所示,記得保存并退出。

 

Spark:安裝及環境配置指南

第三步:slaves文件

slaves文件主要作用是告訴spark集群哪些節點是工作節點worker,這里slaves文件也需要由模板文件復制過來,操作如下圖所示

 

Spark:安裝及環境配置指南

使用vim編輯器編輯slaves

 

Spark:安裝及環境配置指南

文件中輸入如下內容,表示工作節點為slave1和slave2,保存并退出。

 

Spark:安裝及環境配置指南

最后將spark/conf目錄移動到slave1 slave2節點spark目錄下,操作如下圖所示

 

Spark:安裝及環境配置指南

現在就可以啟動集群了,先啟動hadoop集群(也可以不用hadoop,但是在實際應用中大部分spark還是會用到hadoop的資源管理YARN)再啟動spark集群,操作如下所示。

 

Spark:安裝及環境配置指南

通過jps查看啟動的進程,在master節點上spark的進程是Master,在slave節點上spark相關進程是Worker。

 

Spark:安裝及環境配置指南

停止集群時要先停止spark集群

 

Spark:安裝及環境配置指南

再停止hadoop集群

 

Spark:安裝及環境配置指南

spark相關的內容就到這里,關于spark的詳細應用會有單獨系列文章介紹,敬請期待。

責任編輯:未麗燕 來源: 今日頭條
相關推薦

2009-06-02 14:49:37

2022-02-28 09:31:02

開發環境后端前端

2010-06-07 09:08:38

Cacti配置

2009-07-20 13:31:50

Ruby on Rai

2020-11-26 08:26:53

JS

2023-02-20 06:57:34

2011-06-13 15:33:24

Qt Qt 4.5

2009-06-19 18:19:01

2010-06-03 13:21:46

Sendmail 配置

2010-06-09 17:07:56

Nagios pnp

2018-04-09 12:25:11

2011-04-28 14:56:29

XenServer負載

2009-06-11 13:43:21

jBPM用戶指南jBPM 4.0

2010-08-04 09:06:21

Flex安裝

2009-11-17 13:47:20

PHP安裝配置

2011-08-24 10:13:00

Lua

2010-01-18 10:15:53

Fedora編程環境

2021-07-15 09:37:35

鴻蒙HarmonyOS應用

2010-06-07 15:12:12

Cacti配置

2009-07-06 23:30:22

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色久在线| 97精品国产一区二区三区 | 亚洲欧美国产毛片在线 | 免费观看黄色片视频 | 国产精品一二三区 | 国产精品美女久久久久久久网站 | 在线视频一区二区 | 免费看黄色国产 | 亚洲品质自拍视频网站 | 你懂的国产 | 日韩精品人成在线播放 | 成人深夜福利 | 女女爱爱视频 | 免费成人高清在线视频 | 精品二| 天天综合操 | 黄色网址在线免费观看 | 无码一区二区三区视频 | 国产真实精品久久二三区 | 欧美日韩亚洲一区 | 欧美精三区欧美精三区 | 久久久免费少妇高潮毛片 | 黄网站在线播放 | 久久精品视频亚洲 | 亚洲视频 欧美视频 | 精品久久久久久久久久 | 黑人精品欧美一区二区蜜桃 | 国产免费又黄又爽又刺激蜜月al | 午夜免费视频 | 中文字幕免费在线 | 免费看a| 午夜看看| 永久网站 | 黑人精品欧美一区二区蜜桃 | 亚洲国产精品久久 | 蜜桃av鲁一鲁一鲁一鲁 | 一本一道久久a久久精品综合 | 亚洲综合大片69999 | 国产精品免费播放 | 欧美精品一区在线发布 | 国产精品久久久久久中文字 |