成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Apache Beam 剖析

大數據
Apache Beam 主要針對理想并行的數據處理任務,并通過把數據集拆分多個子數據集,讓每個子數據集能夠被單獨處理,從而實現整體數據集的并行化處理。

[[188098]]

1.概述

在大數據的浪潮之下,技術的更新迭代十分頻繁。受技術開源的影響,大數據開發者提供了十分豐富的工具。但也因為如此,增加了開發者選擇合適工具的難度。在大數據處理一些問題的時候,往往使用的技術是多樣化的。這完全取決于業務需求,比如進行批處理的MapReduce,實時流處理的Flink,以及SQL交互的Spark SQL等等。而把這些開源框架,工具,類庫,平臺整合到一起,所需要的工作量以及復雜度,可想而知。這也是大數據開發者比較頭疼的問題。而今天要分享的就是整合這些資源的一個解決方案,它就是 Apache Beam。

2.內容

Apache Beam 最初叫 Apache Dataflow,由谷歌和其合作伙伴向Apache捐贈了大量的核心代碼,并創立孵化了該項目。該項目的大部分大碼來自于 Cloud Dataflow SDK,其特點有以下幾點:

  • 統一數據批處理(Batch)和流處理(Stream)編程的范式
  • 能運行在任何可執行的引擎之上

那 Apache Beam到底能解決哪些問題,它的應用場景是什么,下面我們可以通過一張圖來說明,如下圖所示:


 

通過改圖,我們可以很清晰的看到整個技術的發展流向;一部分是谷歌派系,另一部分則是Apache派系。在開發大數據應用時,我們有時候使用谷歌的框架,API,類庫,平臺等,而有時候我們則使用Apache的,比如:HBase,Flink,Spark等。而我們要整合這些資源則是一個比較頭疼的問題,Apache Beam 的問世,整合這些資源提供了很方便的解決方案。

2.1 Vision

下面,我們通過一張流程圖來看Beam的運行流程,如下圖所示:

通過上圖,我們可以清楚的知道,執行一個流程分以下步驟:

  1. End Users:選擇一種你熟悉的編程語言提交應用
  2. SDK Writers:該編程語言必須是 Beam 模型支持的
  3. Library Writers:轉換成Beam模型的格式
  4. Runner Writers:在分布式環境下處理并支持Beam的數據處理管道
  5. IO Providers:在Beam的數據處理管道上運行所有的應用
  6. DSL Writers:創建一個高階的數據處理管道

2.2 SDK

Beam SDK 提供了一個統一的編程模型,來處理任意規模的數據集,其中包括有限的數據集,無限的流數據。Apache Beam SDK 使用相同的類來表達有限和無限的數據,同樣使用相同的轉換方法對數據進行操作。Beam 提供了多種 SDK,你可以選擇一種你熟悉的來建立數據處理管道,如上述的 2.1 中的圖,我們可以知道,目前 Beam 支持 Java,Python 以及其他待開發的語言。

2.3 Pipeline Runners

在 Beam 管道上運行引擎會根據你選擇的分布式處理引擎,其中兼容的 API 轉換你的 Beam 程序應用,讓你的 Beam 應用程序可以有效的運行在指定的分布式處理引擎上。因而,當運行 Beam 程序的時候,你可以按照自己的需求選擇一種分布式處理引擎。當前 Beam 支持的管道運行引擎有以下幾種:

  • Apache Apex
  • Apache Flink
  • Apache Spark
  • Google Cloud Dataflow

3.示例

本示例通過使用 Java SDK 來完成,你可以嘗試運行在不同的執行引擎上。

3.1 開發環境

  • 下載安裝 JDK 7 或更新的版本,檢測 JAVA_HOME環境變量
  • 下載 Maven 打包環境。

關于上述的安裝步驟,并不是本篇博客的重點,這里筆者就不多贅述了,不明白的可以到官網翻閱文檔進行安裝。

3.2 下載示例代碼

Apache Beam 的源代碼在 Github 有托管,可以到 Github 下載對應的源碼,下載地址:https://github.com/apache/beam

然后,將其中的示例代碼進行打包,命令如下所示:

  1. $ mvn archetype:generate \ 
  2.       -DarchetypeRepository=https://repository.apache.org/content/groups/snapshots \ 
  3.       -DarchetypeGroupId=org.apache.beam \ 
  4.       -DarchetypeArtifactId=beam-sdks-java-maven-archetypes-examples \ 
  5.       -DarchetypeVersion=LATEST \ 
  6.       -DgroupId=org.example \ 
  7.       -DartifactId=word-count-beam \ 
  8.       -Dversion="0.1" \ 
  9.       -Dpackage=org.apache.beam.examples \ 
  10.       -DinteractiveMode=false 

此時,命令會創建一個文件夾 word-count-beam,里面包含一個 pom.xml 和相關的代碼文件。命令如下所示:

  1. $ cd word-count-beam/ 
  2.  
  3. $ ls 
  4. pom.xml    src 
  5.  
  6. $ ls src/main/java/org/apache/beam/examples/ 
  7. DebuggingWordCount.java    WindowedWordCount.java    common 
  8. MinimalWordCount.java    WordCount.java 

3.3 運行 WordCount 示例代碼

一個 Beam 程序可以運行在多個 Beam 的可執行引擎上,包括 ApexRunner,FlinkRunner,SparkRunner 或者 DataflowRunner。 另外還有 DirectRunner。不需要特殊的配置就可以在本地執行,方便測試使用。

下面,你可以按需選擇你想執行程序的引擎:

  1. 對引擎進行相關配置
  2. 使用不同的命令:通過 –runner=<runner>參數指明引擎類型,默認是 DirectRunner;添加引擎相關的參數;指定輸出文件和輸出目錄,當然這里需要保證文件目錄是執行引擎可以訪問到的,比如本地文件目錄是不能被外部集群訪問的。
  3. 運行示例程序

3.3.1 Direct

  1. $ mvn compile exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount \  
  2. -Dexec.args="--inputFile=pom.xml --output=counts" -Pdirect-runner 

3.3.2 Apex

  1. $ mvn compile exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount \ 
  2.      -Dexec.args="--inputFile=pom.xml --output=counts --runner=ApexRunner" -Papex-runner 

3.3.3 Flink-Local

  1. $ mvn compile exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount \  
  2. -Dexec.args="--runner=FlinkRunner --inputFile=pom.xml --output=counts" -Pflink-runner 

3.3.4 Flink-Cluster

  1. $ mvn package exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount \  
  2. -Dexec.args="--runner=FlinkRunner --flinkMaster=<flink master> --filesToStage=target/word-count-beam-bundled-0.1.jar \  
  3. --inputFile=/path/to/quickstart/pom.xml --output=/tmp/counts" -Pflink-runner 

然后,你可以通過訪問 http://<flink master>:8081 來監測運行的應用程序。

3.3.5 Spark

  1. $ mvn compile exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount \  
  2. -Dexec.args="--runner=SparkRunner --inputFile=pom.xml --output=counts" -Pspark-runner 

3.3.6 Dataflow

  1. $ mvn compile exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount \ 
  2.      -Dexec.args="--runner=DataflowRunner --gcpTempLocation=gs://<your-gcs-bucket>/tmp \ 
  3.                   --inputFile=gs://apache-beam-samples/shakespeare/* --output=gs://<your-gcs-bucket>/counts" \ 
  4.      -Pdataflow-runner 

3.4 運行結果

當程序運行完成后,你可以看到有多個文件以 count 開頭,個數取決于執行引擎的類型。當你查看文件的內容的時候,每個唯一的單詞后面會顯示其出現次數,但是前后順序是不固定的,也是分布式引擎為了提高效率的一種常用方式。

3.4.1 Direct

  1. $ ls counts* 
  2.  
  3. $ more counts* 
  4. api: 9 
  5. bundled: 1 
  6. old: 4 
  7. Apache: 2 
  8. The: 1 
  9. limitations: 1 
  10. Foundation: 1 
  11. ... 

3.4.2 Apex

  1. $ cat counts* 
  2. BEAM: 1 
  3. have: 1 
  4. simple: 1 
  5. skip: 4 
  6. PAssert: 1 
  7. ... 

3.4.3 Flink-Local

  1. $ ls counts* 
  2.  
  3. $ more counts* 
  4. The: 1 
  5. api: 9 
  6. old: 4 
  7. Apache: 2 
  8. limitations: 1 
  9. bundled: 1 
  10. Foundation: 1 
  11. ... 

3.4.4 Flink-Cluster

  1. $ ls /tmp/counts* 
  2.  
  3. $ more /tmp/counts* 
  4. The: 1 
  5. api: 9 
  6. old: 4 
  7. Apache: 2 
  8. limitations: 1 
  9. bundled: 1 
  10. Foundation: 1 
  11. ... 

3.4.5 Spark

  1. $ ls counts* 
  2.  
  3. $ more counts* 
  4. beam: 27 
  5. SF: 1 
  6. fat: 1 
  7. job: 1 
  8. limitations: 1 
  9. require: 1 
  10. of: 11 
  11. profile: 10 
  12. ... 

3.4.6 Dataflow

  1. $ gsutil ls gs://<your-gcs-bucket>/counts* 
  2.  
  3. $ gsutil cat gs://<your-gcs-bucket>/counts* 
  4. feature: 15 
  5. smother'st: 1 
  6. revelry: 1 
  7. bashfulness: 1 
  8. Bashful: 1 
  9. Below: 2 
  10. deserves: 32 
  11. barrenly: 1 
  12. ... 

4.總結

Apache Beam 主要針對理想并行的數據處理任務,并通過把數據集拆分多個子數據集,讓每個子數據集能夠被單獨處理,從而實現整體數據集的并行化處理。當然,也可以用 Beam 來處理抽取,轉換和加載任務和數據集成任務(一個ETL過程)。進一步將數據從不同的存儲介質中或者數據源中讀取,轉換數據格式,最后加載到新的系統中。

責任編輯:武曉燕 來源: 36大數據
相關推薦

2020-04-01 10:28:12

Apache HBas數據結構算法

2017-01-23 20:35:24

大數據Apache Beam技術

2010-05-19 14:05:59

Subversion+

2010-05-19 15:25:47

Apache+SVN權

2009-11-25 10:13:30

SUSE Linux配

2016-11-15 09:44:21

大數據批處理流處理

2020-12-02 09:14:47

Apache批處理流式數據

2016-11-14 18:17:42

Apache Beam大數據

2010-05-14 13:21:39

Subversion1

2010-05-17 10:31:10

Subversion和

2010-05-19 13:30:50

2012-02-20 09:18:28

2010-05-17 11:05:05

Subversion和

2012-02-17 09:29:57

2010-05-14 09:04:18

Subversion1

2010-08-05 17:43:27

RIP協議

2009-09-07 17:26:08

LinqDataSou

2009-09-27 13:42:05

Hibernate E

2023-12-06 07:22:36

2009-09-10 14:37:57

LINQ匿名類型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91极品尤物在线播放国产 | 中文字幕在线电影观看 | 国产精品亚洲一区二区三区在线 | 午夜网址| 欧美一区不卡 | 国产精品久久久久久久久久免费 | 最新中文字幕在线 | 国产一级在线观看 | 午夜免费视频观看 | 国产激情91久久精品导航 | 中文字幕 国产 | 国产精品视频网 | 精品一区av| 特级黄一级播放 | www.国产精品 | 国产亚洲精品精品国产亚洲综合 | 中文一区| 涩在线| 国产97碰免费视频 | 久久久久久久久久久久亚洲 | 日韩精品久久 | 欧美日韩一二区 | 欧美不卡视频一区发布 | 成人精品视频免费 | 久久99久久99精品免视看婷婷 | 天堂av在线影院 | 一区二区三区免费观看 | 亚洲国产精品99久久久久久久久 | 欧美a∨| 少妇黄色 | 美日韩精品 | www亚洲精品 | 日韩成人在线观看 | 亚洲一区二区在线 | 日日夜夜精品视频 | 亚洲精品一区二区在线观看 | 国产精品久久久久无码av | 国产伦精品一区二区三毛 | 欧美一级片久久 | 日韩在线国产精品 | 亚洲一区二区视频在线播放 |