成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Spark實(shí)戰(zhàn):?jiǎn)喂?jié)點(diǎn)本地模式搭建Spark運(yùn)行環(huán)境

大數(shù)據(jù) Spark
Spark與Hadoop一樣,是一種開(kāi)源的集群計(jì)算環(huán)境,但在特定工作負(fù)載情況下比Hadoop更高效。Spark采用基于內(nèi)存的分布式數(shù)據(jù)集,優(yōu)化了迭代式的工作負(fù)載以及交互式查詢。下面作者將通過(guò)單節(jié)點(diǎn)本地模式搭建Spark運(yùn)行環(huán)境

前言:

Spark本身用scala寫的,運(yùn)行在JVM之上。

JAVA版本:java 6 /higher edition.

1 下載Spark

http://spark.apache.org/downloads.html

你可以自己選擇需要的版本,這里我的選擇是:

http://d3kbcqa49mib13.cloudfront.net/spark-1.1.0-bin-hadoop1.tgz

如果你是奮發(fā)圖強(qiáng)的好碼農(nóng),你可以自己下載源碼:http://github.com/apache/spark.

注意:我這里是運(yùn)行在Linux環(huán)境下。沒(méi)有條件的可以安裝下虛擬機(jī)之上!

2 解壓縮&進(jìn)入目錄

tar -zvxf spark-1.1.0-bin-hadoop1.tgz

cd spark-1.1.0-bin-hadoop1/

3 啟動(dòng)shell

./bin/spark-shell

你會(huì)看到打印很多東西,***顯示

4 小試牛刀

先后執(zhí)行下面幾個(gè)語(yǔ)句

  1. val lines = sc.textFile("README.md")   
  2.  
  3. lines.count()   
  4.  
  5. lines.first()   
  6.  
  7. val pythonLines = lines.filter(line => line.contains("Python"))   
  8.  
  9. scala> lines.first()  
  10. res0: String = ## Interactive Python Shel  

---解釋,什么是sc

sc是默認(rèn)產(chǎn)生的SparkContext對(duì)象。

比如

  1. scala> sc  
  2. res13: org.apache.spark.SparkContext = org.apache.spark.SparkContext@be3ca72 

這里只是本地運(yùn)行,先提前了解下分布式計(jì)算的示意圖:

 

5 獨(dú)立的程序 

***以一個(gè)例子結(jié)束本節(jié)

為了讓它順利運(yùn)行,按照以下步驟來(lái)實(shí)施即可:

--------------目錄結(jié)構(gòu)如下:

  1. /usr/local/spark-1.1.0-bin-hadoop1/test$ find .  
  2. .  
  3. ./src  
  4. ./src/main  
  5. ./src/main/scala  
  6. ./src/main/scala/example.scala  
  7. ./simple.sbt 

然后simple.sbt的內(nèi)容如下:

  1. name :"Simple Project"  

 

  1. version :"1.0"   

 

  1. scalaVersion :"2.10.4"  

 

  1. libraryDependencies += "org.apache.spark" %% "spark-core" % "1.1.0" 

example.scala的內(nèi)容如下: 

  1. import org.apache.spark.SparkConf  
  2.  import org.apache.spark.SparkContext  
  3.  import org.apache.spark.SparkContext._   
  4.  
  5. object example {  
  6.    def main(args: Array[String]) {  
  7.     val conf = new SparkConf().setMaster("local").setAppName("My App")  
  8.     val sc = new SparkContext("local""My App")  
  9.     sc.stop()  
  10.     //System.exit(0)  
  11.     //sys.exit()  
  12.     println("this system exit ok!!!")  
  13.    }  
  14.  }  

紅色local:一個(gè)集群的URL,這里是local,告訴spark如何連接一個(gè)集群,local表示在本機(jī)上以單線程運(yùn)行而不需要連接到某個(gè)集群。

橙黃My App:一個(gè)項(xiàng)目的名字,

然后執(zhí)行:sbt package

成功之后執(zhí)行

./bin/spark-submit  --class  "example"   ./target/scala-2.10/simple-project_2.10-1.0.jar

結(jié)果如下:

說(shuō)明確實(shí)成功執(zhí)行了!

結(jié)束!

本文來(lái)自:http://my.oschina.net/qiangzigege/blog/313859

責(zé)任編輯:林師授 來(lái)源: 強(qiáng)子哥哥的博客
相關(guān)推薦

2020-09-22 18:01:22

SparkStandalone運(yùn)行

2019-06-11 09:50:07

SparkBroadcast代碼

2016-01-07 09:36:20

Docker容器

2014-01-07 10:36:32

EclipsSpark

2023-06-07 17:04:48

集群Standalone

2014-04-16 13:47:43

SparkYarn

2014-04-16 14:04:34

SparkStandalone

2018-03-21 11:05:26

Spark大數(shù)據(jù)應(yīng)用程序

2020-05-26 15:05:30

Spark安裝環(huán)境

2010-07-14 16:16:16

Telnet模式

2017-08-14 10:30:13

SparkSpark Strea擴(kuò)容

2021-08-09 09:00:00

Kubernetes云計(jì)算架構(gòu)

2023-06-12 07:41:16

dockerspark集群

2020-04-01 11:11:35

Hadoop運(yùn)行環(huán)境分布式

2017-10-13 10:36:33

SparkSpark-Strea關(guān)系

2020-03-06 16:00:04

KubernetesSpark容器

2020-05-20 13:20:45

KubernetesSpark數(shù)據(jù)

2014-02-14 15:43:16

ApacheSpark

2016-09-13 14:05:24

Spark集群管理模式

2023-10-24 20:32:40

大數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 国产内谢| 最新国产精品视频 | 天天夜天天操 | 天天玩天天干天天操 | 91在线电影 | 久久国产精品网 | 精品国产不卡一区二区三区 | 久久久精品一区二区 | 华人黄网站大全 | 操网站| 国产精品2区 | 久久久久国产精品午夜一区 | 日本小视频网站 | 毛片高清| 91精品久久久久久久久 | 免费在线观看一区二区 | 国产精品久久二区 | 懂色中文一区二区在线播放 | 国产精品美女久久久久aⅴ国产馆 | 黄篇网址 | 99亚洲| 天堂一区二区三区 | 岛国av免费看 | 黄网站涩免费蜜桃网站 | 成人av一区二区在线观看 | 国产欧美一区二区精品久导航 | 97超碰人人| www.一区二区三区 | 国产a级黄色录像 | 亚洲一区二区三区四区五区中文 | 欧美专区在线 | 欧美一区二区三区在线观看 | 在线观看av网站永久 | 欧美日韩在线一区 | 特a毛片| 午夜视频精品 | 国产午夜精品一区二区 | 日韩在线精品视频 | 国产1区2区 | 久久久久精 | 欧美一区二区三区日韩 |