成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Apache Hudi 新版本新特性超強解讀

數(shù)據(jù)庫
Apache 社區(qū)在2022年4月30日發(fā)布了Apache Hudi 0.11.0版本,其中包括一系列的新功能和提升優(yōu)化。

本次分享主要是針對Apache Hudi 0.11.0新版本新特性進行深度解讀,主要介紹4個方面的內容:

  • 多級索引
  • Spark SQL 新功能
  • Flink 集成改進
  • 其他功能和提升

01多級索引

首先和大家分享下多級索引,接下來我們將從三個方面介紹它。第一是為什么我們引入多級索引multi model index,第二多級索引的設計以及實踐,最后將介紹如何利用多級索引,極大提升讀寫性能。

1. 為什么要引入多級索引(Multi-Modal Index)

在介紹多級索引之前,我們先看看索引是什么?索引是數(shù)據(jù)庫系統(tǒng)中常用的查詢加速技術。通過構建索引就可以利用生成的元數(shù)據(jù)metadata快速定位查詢所需數(shù)據(jù)的位置,這樣可以減少甚至避免從文件系統(tǒng)中掃描或者讀取不必要的數(shù)據(jù),減少IO的開銷,大大提升查詢效率。我們可以類比圖書館以及教科書中的索引,這些都是通過利用提前生成好的metadata來快速找到想要查找的信息。

其實在Apache Hudi的湖倉一體的架構中已經(jīng)提供了特有的索引支持,這里我們可以看一個例子。其中我們用的一種索引可以快速定位到我們所需要更新或者刪除的記錄所在的文件組。如下圖所示:

圖片

如果沒有index的情況下,對于所有的更新以及刪除的記錄,我們需要和所有的文件進行merge,這樣開銷會非常大。如果使用了索引,讀寫開銷會極大地降低,可以提高查詢這個位置的效率。

在Hudi中我們默認開啟了基于bloom filter的索引。這些bloom filter是存儲在數(shù)據(jù)文件的footer中。作為一個單獨的存在,它可以被用到索引的流程過程中。

那我們?yōu)槭裁催€要在Hudi中引用多級索引?其實索引的主要目的就是剛剛提到的提升數(shù)據(jù)查詢的速度,那么就需要存儲metadata。而對于TB、EB級別表中的metadata,它們的量級會很大。通常的做法是把它們存儲于單獨的數(shù)據(jù)塊block或者是數(shù)據(jù)文件中。而我們在實測的過程中,遇到了讀寫瓶頸。同時,在維護metadata的過程中,它需要實時的和數(shù)據(jù)表進行同步。這樣的管理十分復雜,因為要保證transaction,如果我們要在Hudi中引用新的索引開發(fā)周期會很長。

2. 多級索引的設計與實現(xiàn)

為了解決上述的問題,我們在湖倉一體的存儲架構中引入了多級索引,是首次在類似的架構中引入統(tǒng)一平臺、多元化、高性能的索引。我們的目標是支持所有計算及查詢引擎來提升讀寫性能,甚至未來如果出現(xiàn)新的引擎,也是可以進行兼容的。

接下來我們介紹一些在多級索引設計中所需要的需求。

  • 第一是我們需要保證可拓展的元數(shù)據(jù)(scalable metadata)。我們希望元數(shù)據(jù)是Serverless的,是不需要任何的計算或者是內存中需要支持的,可以獨立存在于數(shù)倉一體和數(shù)據(jù)湖中。同時希望它能獨立于計算及查詢引擎,它是可拓展的,能高性能地支持不同索引類型。
  • 第二是我們希望多級索引中的元數(shù)據(jù)和數(shù)據(jù)表保持實時同步,保證每次的更新都是事務性的。
  • 第三是保證查詢的速度。保證對于多級索引的查詢是低延遲的,主要的查詢類型包括point, range, and prefix lookups等。

我們分別來看一下是如何實現(xiàn)的。

首先是可拓展的元數(shù)據(jù),我們采用了和已有數(shù)據(jù)庫類似的設計,那就是在內部構建一個元數(shù)據(jù)表meta table。對于Hudi table來說,我們利用的是Hudi的mor表來存儲這些數(shù)據(jù)。mor表的優(yōu)勢是可以很快地進行數(shù)據(jù)的更新與刪除。同時,Hudi表也是Serverless的,它不會依賴任何計算及內存資源。在這個表里我們針對不同的索引是建立獨立的分區(qū)的。在這樣的情況下,不同的index可以完成獨立的管理以及自動化的管理。我們在使用mor表的另一個優(yōu)點是可以支持任意的索引大小。從mb級別到gb級別再到tb級別。針對獨立的分支,我們可以引入新的作用類型,就只需要建立新的分區(qū)。在構建可拓展的元數(shù)據(jù)的時候,需要索引的一個初始化。我們提高了兩種方式的初始化。一種是同步,同步是在寫入表的過程中,在最后commit之前會做一個index的步驟。而第二種方式是異步。異步創(chuàng)建索引是hudi首次引入的,保證了concurrent writer 不受影響。下面是異步創(chuàng)建索引的流程圖:

圖片

  • 第二點的設計原則是保證對metadata table的更新是事務性的,來保證metadata table結構里面的數(shù)據(jù)要和數(shù)據(jù)表實時同步。我們設計了一套叫multi table多表的transaction。同時在這個metadata table 里,有自我管理的表服務,包括compaction, cleaning。它們會保證定時操作,以保證這個metadata table 的讀性能會很好。
  • 第三點是對于metadata的快速查詢。我們使用了HFile作為MDT的數(shù)據(jù)格式。原因是列格式Parquet或基于行的Avro不適合 pointed lookup;HFile格式中的index使得 pointed lookup非常高效,只需要讀取相關數(shù)據(jù)塊。我們針對HFile做了一個測試,得出在千萬(10M)+條目中查詢 N 條目,HFile 相比于 Parquet、Avro 有 10-100倍的提升。如下圖:

圖片

3. 利用多級索引極大提升讀寫性能

接下來介紹多級索引所帶來的主要的讀寫性能提升。

  • 首先是File Listing

在云存儲中我們發(fā)現(xiàn)大部分情況下,如果對于大型表的上千分區(qū)以及百萬級的數(shù)據(jù)文件做listing,會造成讀寫瓶頸。這主要是因為云存儲的設計所導致的。如果我們利用metadata table中的files來做分區(qū)。這個分區(qū)里提供了這個數(shù)據(jù)表里所有的file。相比于云軟件系統(tǒng)有2-20倍的提升。如下圖:

圖片

  • 另一個比較重要的特性是Data Skipping

Data Skipping 技術是利用列統(tǒng)計數(shù)據(jù)來對所需要的這個數(shù)據(jù)文件做file pruning (文件裁剪),列統(tǒng)計數(shù)據(jù)常見的列統(tǒng)計數(shù)據(jù)包括取最大值、最小值、數(shù)量、大小等。Data Skipping 的作用就是通過這些統(tǒng)計數(shù)據(jù)來排除掉不需要讀的文件,這樣可以極大的提高查詢速度。我們在這個multi model index 的metadata 中構建了column_stats分區(qū),這個分區(qū)里的每條記錄包含了這個Hudi表里所對應文件的列統(tǒng)計數(shù)據(jù)。每個Record key是由列名稱、分區(qū)名稱和文件名稱組成。通過這種排列格式,可以快速定位所需的column stats。查詢復雜度是基于查詢列所需要的列的數(shù)量,通常這個數(shù)量是5到10個。對于大寬表來說,這樣可以極大地提升這個效果。在實際測試中,云上Hudi大寬表的“定向”查詢速度有10x-30x的提升。大幅減少了對無關數(shù)據(jù)文件的掃描和讀取,提高了I/O效率。如下圖:

圖片

  • 我們還對Upsert 性能做了測試。我們在metadata table中引入了一個bloom_filter 分區(qū),取代了footer 中的 bloom filter,在大表中可以大幅減少文件讀取的時間。每條記錄包含單個數(shù)據(jù)文件(partition + file name)的 bloom filter,支持 prefix lookup。據(jù)實測,在有 100k 文件的 Hudi 表中,相比于讀取 footer,從 MDT 讀取 bloom filter的速度有3倍的提升。t6.c
  • 基于多級索引,未來還有很多工作可以做,目前一個工作是針對record level index 的開發(fā)以及Luncene index的開發(fā)。

02 Spark SQL新功能

接下來再講Hudi在Spark SQL方面的改進。

1. 用戶可以使用非主鍵字段更新或刪除 Hudi 表中的記錄

Spark SQL改進Delete Operation。

在t1時刻分別往mor表cow表中分別插入a,b,c三條數(shù)據(jù)。這樣會在mor表中生成base file 文件和log file文件(下圖中簡化了示意圖)。在cow表中只會生產(chǎn)base file 文件。t2時刻同時刪除mor表和cow表中 b的數(shù)據(jù)。mor表操作是刪除log file b的block是t2時刻的數(shù)據(jù)。而cow表中的操作是復制一份base file b保存到內存中,刪除b數(shù)據(jù)之后會形成一個新版本的綠色的方框中的數(shù)據(jù)文件。如下圖:

圖片

2. SQL支持時間旅行查詢

我們?yōu)槭裁匆獙崿F(xiàn)Time travel?從api層面,如果我們要寫一個查詢,需要設置不同的df,構造不同的operation,然后來查詢這個動作。但是引用time travel的這個語句以后,一是可以在spark sql中直接使用,二是sql語句更容易去解釋這樣的一個行為和動作。現(xiàn)在可以通過timestamp as of語法支持時間旅行查詢,但僅限Spark 3.2+。語法如下:select * from hudi_tbl timestamp as of '20210728141108100' 

①SQL Travel-場景1:查詢多版本數(shù)據(jù)

如下圖,我們在10:10分提交了insert和update語句,我們想要查10:05分版本的數(shù)據(jù),通過下面的sql是可以實現(xiàn)的。

select * from test_hudi timestamp as of 20220512100510000 (10:05)

select * from test_hudi timestamp as of 20220512101030000 (10:10)

圖片

②Travel-場景2: 數(shù)據(jù)還原修復

  • 創(chuàng)建hudi表:create table test_hudi ...
  • 插入數(shù)據(jù):insert into test_hudi ... (每插入一條數(shù)據(jù)會產(chǎn)生一個版本)

圖片

  • 查詢數(shù)據(jù):select * from test_hudi

圖片

  • 誤刪數(shù)據(jù):delete from test_hudi where id=2
  • 查詢數(shù)據(jù):select * from test_hudi (刪除id=2的數(shù)據(jù)后只剩下了兩個版本)

圖片

  • 還原數(shù)據(jù):insert into test_hudi_table select * from test_hudi timestamp as of 20220511165343733(數(shù)據(jù)如果存在的話update,如果數(shù)據(jù)不存在就insert)
  • 查詢數(shù)據(jù):select * from test_hudi (id=2的數(shù)據(jù)已經(jīng)還原回來了)

圖片

注意:如果這個表用了 truncate清空的話,這種時間戳方式查詢恢復就不行了。 

3. 添加CALL命令以支持在 Hudi 表上調用更多操作

Call Command產(chǎn)生的一個背景是spark sql除了ddl、dql和dml之外的操作,我們想解決這三種操作之外的一些新功能的操作。那么在引入Call Command之前是沒辦法操作的。我們對比了一下傳統(tǒng)數(shù)據(jù)庫里面的存儲過程,類似地在spark這一塊實現(xiàn)了一個command動作,然后對應實現(xiàn)了一個procedure的功能。

首先是在hudi一側為call command生成了一個通用的語法,不依賴于spark的版本,可以對所有spark版本適用。然后生成了一個HoodieProcedure的類,使用CallProcedureHoodieCommand類調用動作。

Call Command命令在設計時主要有四個方面的功能。一是支持歸檔、提交、回滾和創(chuàng)建還原點的快照動作。二是可以進行原數(shù)據(jù)管理。三是對運維表進行數(shù)據(jù)導入導出、Boostrap、修復表、升級/降級等操作。四是優(yōu)化表動作,如Compaction、Clustering、Clean等。

Call Command的參數(shù)有三類。一是可以使用不定式的參數(shù)(鍵值對)作為它的入?yún)?shù)。二是可以按照參數(shù)的位置進行入?yún)ⅰH腔旌蠀?shù)。以下是傳參的具體語法:

圖片

  • 接下來是CALL Command功能方面的一些介紹。

①CALL Command-快照管理的相應的命令

  • 查詢快照 :call show_commits_metadata(table => 'test_hudi_table', limit => 10)
  • 回滾快照:

call rollback_to_instant('test_hudi_table',20220511224632307')

  • 創(chuàng)建保存點 :create_savepoints
  • 恢復保存點 :rollback_savepoints
  • 刪除保存點 :delete_savepoints

②CALL Command-Clustering

可以設置Clustering的類型:

set hoodie.layout.optimize.strategy=linear /z-order/hilbert

常用命令:

call run_clustering(table => 'test_hudi_table',order => 'ts') 

call show_clustering(table=>'test_hudi_table')

通過這些clustering的動作,在查詢的時候性能能達到10-20倍的提升。

③CALL Command-Compact(小文件合并)(目前只支持mor表)

Data file和Delta log file 合并會重新生成一個新的文件。

圖片

命令:call run_compaction(table=>'test_hudi_table',op=> instant

03 Flink集成改進

最后,介紹Flink集成改進方面的內容。主要有以下幾點:

1. 在 0.11.0 中,同時支持 Flink 1.13.x 和 1.14.x。

2. 支持復雜的數(shù)據(jù)類型。

3. 基于 DFS 的 Flink HoodieCatalog。

綠色是目前已經(jīng)實現(xiàn)的操作,紅色是待實現(xiàn)的操作。可以通過ApI實現(xiàn)或者是Flink Sql實現(xiàn)。

FlinkHoodieCatalog在三個方面有比較好的作用:

  • 第一個方面是對元數(shù)據(jù)的管理,通過FlinkHoodieCatalog這個框架可以更好地管理HoodieCatalog;
  • 第二個方面是可以基于這個框架可以去和外面的其他的平臺去對接,更方便對接使用;
  • 第三個方面是元數(shù)據(jù)方面,可以在數(shù)據(jù)血緣方面構造一些功能。

圖片

4. Bucket Index 

為什么要集成改進Bucket Index?這個是字節(jié)的同學貢獻的一個功能。他們在他們的生產(chǎn)場景里面,在34tb的數(shù)據(jù)量在5000億的記錄寫入的情況下,Bloom Filter Index 通過Record key去找File ID 的這樣的一個動作的性能會下降得很快。為了解決Bloom Filter Index的假陽性,他們引入了Bucket Index。

通過key的哈希值定位到File Group,提升了實時導入的性能。如下圖所示:

圖片

從Flink輸入了5條數(shù)據(jù),然后通過一定的哈希策略將混合的Bucket Index進行關聯(lián),通過拿到FileGroupId寫入文件。

  • 利用Bucket分布做優(yōu)化

Bucket分布優(yōu)化主要有:Bucket Pruning、Bucket Aggregate、Bucket Join等。如下圖所示:

圖片

  • Bucket限制。目前 Bucket Index 的桶數(shù)量 ,需要根據(jù)預估的數(shù)據(jù)量提前在建表時進行確定,且建表后不可更改。
  • Bucket使用

參數(shù):hoodie.index.type 值:BUCKET

參數(shù):hoodie.bucket.index.num.buckets 值:48(256MB)

建議單個桶的大小控制在3GB左右。

  • Bucket后續(xù)改進。Hashmap的擴容過程,將分桶數(shù)按倍數(shù)做到輕量級動態(tài)擴容。

04其他功能和提升

最后,我們來講其他功能和提升。

1. Spark DataSource 查詢優(yōu)化

我們在使用mor表做快照查詢的時候,log文件會被讀取,然后和base文件進行合并。在之前的版本中,當你做快照查詢的時候,整條log文件記錄會被讀出來。這個版本我們做了優(yōu)化,使用了內置的標準Payload來讀取。例如:OverwriteWithLatestAvroPayload。我們會針對這個做了優(yōu)化,只把必要的列讀出來,這樣就會極大的減少內存和壓縮解碼帶來的CPU的消耗。其實是對于非常寬的上千列的表來說,效果會非常明細。

2. Schema 演進 

在這個版本中,我們針對Spark 3.1、Spark 3.2版本增加了schema功能的演進。如果啟用 set hoodie.schema.on.read.enable=true以后,我們可以對表列和對表進行一系列的操作。列的變更(增加、刪除、重命名、修改位置、修改屬性),表的變更(重命名、修改屬性) 等。

3. 保存點和恢復 

保存點和恢復可以用call command做這些操作。新版本引進了mor表,用Hudi CLI設定保存點和執(zhí)行恢復或者call command來手動設置保存點。保存點之后的數(shù)據(jù)將會被刪除。

4. Pulsar 寫提交回調 

  • Hudi寫入commit支持Pulsar下游作業(yè)* 
  • 主要配置 HoodieWriteCommitPulsarCallback 

hoodie.write.commit.callback.pulsar.topic

hoodie.write.commit.callback.pulsar.broker.service.url

  • 可擴展的接口HoodieWriteCommitCallback 

5. 多元化的Catalog同步

  • Google BigQuery 支持查詢COW表* 
  • DataHub 支持同步Schema 
  • 通過AWS SDK原生同步Glue Data Catalog 
責任編輯:張燕妮 來源: DataFunTalk
相關推薦

2023-03-15 07:29:54

開源數(shù)據(jù)湖

2010-06-01 09:52:27

jQuery Tool

2010-06-24 15:03:37

MSN微軟

2011-08-01 15:35:51

GlassFishJava 7

2024-08-07 10:46:45

2024-10-22 08:01:15

2022-05-05 11:20:08

KubernetesDocker云計算

2022-04-15 11:51:48

Windows 11安全加密

2015-08-03 13:12:43

分布式計算Mesos新版本特性

2019-03-05 15:03:09

Android Q安卓系統(tǒng)功能

2015-02-05 16:59:36

平安WiFiiOS

2010-02-23 17:44:48

Python 3.0

2009-06-17 09:24:34

學習strutsStruts新版本

2011-04-11 09:11:42

GNOME 3

2022-08-29 15:30:46

TypeScript代碼

2009-12-29 13:43:21

Ubuntu 9.10

2012-05-15 13:39:41

微軟Windows8

2009-12-31 11:09:36

Ubuntu wine

2023-05-18 08:00:59

CephRGW 性能

2009-08-02 08:59:47

Windows 7 R系統(tǒng)升級
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 99精品久久 | 精品国产一区二区三区日日嗨 | 97av在线| 亚洲国内精品 | 亚洲视频一区在线 | 四虎影视免费观看 | 男人天堂社区 | 久久99网站| 91看国产 | 国产馆 | 91国内精精品久久久久久婷婷 | 国产在线二区 | 日本久草 | 三级av在线| 日韩欧美亚洲 | 亚洲欧美激情精品一区二区 | 国产成都精品91一区二区三 | 一区二区三区视频在线观看 | 免费在线观看一区二区三区 | 在线中文字幕第一页 | 视频一区二区在线 | 美女福利网站 | 国产精品99视频 | 黑人中文字幕一区二区三区 | 国产成人99 | 理论片午午伦夜理片影院 | 亚洲成人一区二区三区 | 日韩毛片在线观看 | 成人性视频在线播放 | 欧美一级三级在线观看 | 中文字幕成人在线 | 国产日韩亚洲欧美 | 热re99久久精品国产99热 | 亚州无限乱码 | www.一区二区三区 | 国产美女一区二区 | 在线观看免费av网 | 久久亚洲视频 | 国产精品视频播放 | 夫妻午夜影院 | 中文字幕在线观看第一页 |