亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Apache?Hudi基于華米科技應用湖倉一體化改造

 更新時間:2022年03月30日 17:28:01   作者:leesf  
這篇文章主要介紹了Apache?Hudi基于華米科技應用湖倉一體化改造?,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步早日升職加薪

1. 應用背景及痛點介紹

華米科技是一家基于云的健康服務提供商,擁有全球領先的智能可穿戴技術。在華米科技,數據建設主要圍繞兩類數據:設備數據和APP數據,這些數據存在延遲上傳、更新頻率高且廣、可刪除等特性,基于這些特性,前期數倉ETL主要采取歷史全量+增量模式來每日更新數據。隨著業(yè)務的持續(xù)發(fā)展,現有數倉基礎架構已經難以較好適應數據量的不斷增長,帶來的顯著問題就是成本的不斷增長和產出效率的降低。

針對數倉現有基礎架構存在的問題,我們分析了目前影響成本和效率的主要因素如下:

  • 更新模式過重,存在較多數據的冗余更新增量數據的分布存在長尾形態(tài),故每日數倉更新需要加載全量歷史數據來做增量數據的整合更新,整個更新過程存在大量歷史數據的冗余讀取與重寫,帶來的過多的成本浪費,同時影響了更新效率;
  • 回溯成本高,多份全量存儲帶來的存儲浪費,數倉設計中為了保證用戶可以訪問數據某個時間段的歷史狀態(tài),會將全量數據按照更新日期留存多份,故大量未變化的歷史冷數據會被重復存儲多份,帶來存儲浪費;

為了解決上述問題,保證數倉的降本提效目標,我們決定引入數據湖來重構數倉架構,架構如下:

  • 業(yè)務數據源實時接入Kafka,Flink接Kafka構建ODS實時增量數據層,實時ODS增量層主要作用有兩方面:
    • 依賴ODS實時增量數據(保留原始格式,不做清洗轉化)每日離線入湖來構建ODS層離線湖倉,ODS層數據后續(xù)作為業(yè)務數據的備份、滿足DWD層全量數據重做需求;
    • 對ODS實時增量數據進行清洗、轉換,編碼后,每日增量數據離線寫入DWD層,構建DWD層離線湖倉;
  • DWS層定義為主題公共寬表層,主要是對DWD層和DIM維度層各表信息,根據業(yè)務需求做多表關聯(lián)轉換整合,為業(yè)務和分析人員提供更易用的模型數據
  • OLAP層會提供強大的數據快速查詢能力,作為對外的統(tǒng)一查詢入口,用戶直接通過OLAP引擎來即席查詢分析湖倉中所有的表數據
  • ADS層會依賴其他各層數據來對業(yè)務提供定制化的數據服務

2. 技術方案選型

 HudiIcebergDelta
引擎支持Spark、FlinkSpark、FlinkSpark
原子語義Delete/Update/MergeInsert/MergeDelete/Update/Merge
流式寫入支持支持支持
文件格式Avro、Parquet、ORCAvro、Parquet、ORCParquet
MOR能力支持不支持不支持
Schema Evolution支持支持支持
Cleanup能力自動手動手動
Compaction自動/手動手動手動
小文件管理自動手動手動

基于上述我們比較關心的指標進行對比。Hudi可以很好的在任務執(zhí)行過程中進行小文件合并,大大降低了文件治理的復雜度,依據業(yè)務場景所需要的原子語義、小文件管理復雜度以及社區(qū)活躍度等方面綜合考量,我們選擇Hudi來進行湖倉一體化改造。

3. 問題與解決方案

3.1.增量數據字段對齊問題

華米數據云端由于業(yè)務原因會產生表Schema變更需求,從而避免因Schema變更而重做歷史Base數據帶來的高額計算成本。但由于新增產生的數據實體字段相對位置的亂序問題,導致入湖同步Hive的過程中產生異常。針對該問題,華米大數據團隊也在和社區(qū)聯(lián)動,解決數據字段對齊問題。在社區(qū)支持更完善的Schema Evolution之前,當前華米大數據團隊的解決方案為:根據歷史Base數據的Schema順序重新對增量數據Schema順序做編排,然后統(tǒng)一增量入湖。具體處理流程如下圖所示:歷史Base數據的Schema順序為{id, fdata, tag, uid},增量數據的Schema{id, fdata, extract, tag, uid},可見新增extract字段順序打亂了原先歷史Base數據的Schema,可以根據所讀取的歷史數據Schema順序對新增數據進行調整:

將{id, fdata, extract, tag, uid}變更為{id, fdata, tag, uid, extract},然后調用Schema Evolution給歷史Base數據的Schema添加一個extract字段,最終將調整后的增量數據寫入歷史Base。

3.2 全球存儲兼容性問題

華米大數據存儲涉及多種存儲(HDFS,S3,KS3),華米大數據團隊新增對KS3存儲的支持并合入社區(qū)代碼,在Hudi0.9版本后可以支持KS3存儲。

3.3 云主機時區(qū)統(tǒng)一問題

由于華米全球各個數據中心采用按需方式進行節(jié)點擴容,申請得到的云主機可能會出現節(jié)點時區(qū)不一致,從而會造成commit失敗,我們對Hudi源碼進行了改造,在hudi源碼中統(tǒng)一了Timeline的時區(qū)(UTC)時間來保證時區(qū)統(tǒng)一,避免commitTime回溯導致的Commit失敗。

3.4 升級新版本問題

在Hudi0.9升級到0.10版本中,會發(fā)現出現版本因version不一致造成的數據更新失敗問題。出現的不一致問題已經反饋至社區(qū),社區(qū)相關同學正在解決,現在我們暫時使用重建元數據表(直接刪除metadata目標)來解決該問題,再次執(zhí)行作業(yè)時,Hudi會自動重新構建元數據表。

3.5 多分區(qū)Upsert性能問題

Hudi on Spark需要根據增量數據所在的分區(qū)采集文件的索引文件,更新分區(qū)過多的情況下,性能較差。針對這一問題,目前我們通過兩個層面來進行處理:

  • 推進上游進行數據治理,盡可能控制延遲數據,重復數據的上傳
  • 代碼層進行優(yōu)化,設定時間范圍開關,控制每日入湖的數據在設定時間范圍內,避免延遲較久的極少量數據入湖降低表每日更新性能;對于延遲較久的數據匯集后定期入湖,從而降低整體任務性能開銷

3.6 數據特性適應問題

從數據入湖的性能測試中來看,Hudi性能跟數據組織的策略有較大的關系,具體體現在以下幾個方面:

  • 聯(lián)合主鍵多字段的順序決定了Hudi中的數據排序,影響了后續(xù)數據入湖等性能;主鍵字段的順序決定了hudi中數據的組織方式,排序靠近的數據會集中分布在一起,可利用這個排序特性結合更新數據的分布特性,以盡可能減少入湖命中的base文件數據,提升入湖性能;
  • 數據湖中文件塊記錄條數與布隆過濾器參數的適應關系,影響了索引構建的性能;在使用布隆過濾器時,官方給出的默認存儲在布隆過濾器中的條目數為6萬(假設maxParquetFileSize為128MB,averageRecordSize為1024),如果數據較為稀疏或者數據可壓縮性比較高的話,每個文件塊可能會存儲的記錄數遠大于6萬,從而導致每次索引查找過程中會掃描更多的base文件,非常影響性能,建議根據業(yè)務數據的特性適當調整該值,入湖性能應該會有較好的提升;

4. 上線收益

從業(yè)務場景和分析需求出發(fā),我們主要對比了實時數據湖模式和離線數據湖模式的成本與收益,實時成本遠高于離線模式。鑒于目前業(yè)務實時需求并不是很高,故華米數倉在引入數據湖時暫采取Hudi + Spark離線更新模式來構建湖倉ODS原始層和DWD明細層,從測試對比和上線情況來看,收益總結如下:

4.1 成本方面

引入Hudi數據湖技術后,數據倉庫整體成本有一定程度的下降,預計會降低1/4~1/3的費用。主要在于利用Hudi數據湖提供的技術能力,可以較好的解決應用背景部分闡述的兩大痛點,節(jié)約數倉Merge更新與存儲兩部分的費用開銷。

4.2 效率方面

Hudi利用索引更新機制避免了每次全量更新表數據,使得數倉表每次更新避免了大量的冗余數據的讀取與寫入操作,故而表的更新效率有了一定的提升。從我們數倉+BI報表整體鏈條層面來看,整體報表產出時間會有一定程度的提前。

4.3 穩(wěn)定性層面

程序穩(wěn)定性層面暫時沒有詳細評估,結合實際場景說下目前情況:

  • 中大表更新引入Hudi會相對較為穩(wěn)定?;贏ws Spot Instance機制,對于數據量過大的表,每次全量shuffle的數據量過大,會導致拉取數據的時間過長,Spot機器掉線,程序重試甚至失敗,或者內存原因導致的fetch失敗,造成任務的不穩(wěn)定。引入Hudi后,可以很大程度減少每次shuffle的數據量,有效緩解這一問題;
  • Hudi的Metadata表機制功能穩(wěn)定性待繼續(xù)完善,開啟后影響程序穩(wěn)定性??紤]提升程序性能,前期開啟了Metadata表,程序運行一段時間后會出現報錯,影響錯誤已經反饋給社區(qū),暫時關閉該功能,待穩(wěn)定后再開啟;

4.4 查詢性能層面

Hudi寫入文件時根據主鍵字段排序后寫入,每個Parquet文件中記錄是按照主鍵字段排序,在使用Hive或者Spark查詢時,可以很好的利用Parquet謂詞下推特性,快速過濾掉無效數據,相對之前的數倉表,有更好的查詢效率。

5. 總結與展望

從數據湖上線和測試過程來看,目前數據湖能解決我們的一些數倉痛點,但是依然存在一些問題。

總結如下

  • Hudi on Spark 布隆過濾器查找與構建索引過程性能尚待提升,由于華米數據分布特性(更新頻率多,范圍廣),現階段部分大表的更新性能提升有待加強;
  • Metadata表的使用是為了提升整體入湖性能,但目前由于穩(wěn)定性問題暫時關閉,后續(xù)會持續(xù)關注社區(qū)Metadata表的改進;
  • 更新數據分布特性的研究至關重要,決定著如何組織數據湖中的數據分布,較大影響著任務性能,這塊需要后續(xù)做進一步優(yōu)化;

展望如下

  • 利用Flink + Hudi技術棧搭建實時數倉,構建kafka -> ods -> dwd -> olap的實時數據鏈條,滿足業(yè)務近實時需求
  • 索引優(yōu)化方案 -> HBase構建二級索引

以上就是Apache Hudi基于華米科技應用湖倉一體化改造 的詳細內容,更多關于Apache Hudi華米科技應用改造的資料請關注腳本之家其它相關文章!

相關文章

  • CentOS下搭建SVN服務器的步驟詳解

    CentOS下搭建SVN服務器的步驟詳解

    這篇文章主要介紹了CentOS下搭建SVN服務器的步驟,較為詳細的分析了CentOS平臺上搭建SVN服務器的步驟與相關操作注意事項,需要的朋友可以參考下
    2016-10-10
  • 完美解決IIS和APACHE的301重定向(帶參數)

    完美解決IIS和APACHE的301重定向(帶參數)

    感覺BAIDU spider對404的重定向似乎無動于衷,于是近日干脆對原失效的鏈接重新設置301重定向。
    2010-11-11
  • 配置Memcache服務器并實現主從復制功能(repcached)

    配置Memcache服務器并實現主從復制功能(repcached)

    repcached是日本人開發(fā)的實現memcached復制功能,它是一個單 master單 slave的方案,但它的 master/slave都是可讀寫的,而且可以相互同步,如果 master壞掉, slave偵測到連接斷了,它會自動 listen而成為 master
    2012-03-03
  • Hadoop3.2.0集群搭建常見注意事項

    Hadoop3.2.0集群搭建常見注意事項

    這篇文章主要介紹了Hadoop3.2.0集群搭建常見注意事項,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-11-11
  • 服務器中aux,com1,com2,prn,con,nul等特殊文件刪除方法

    服務器中aux,com1,com2,prn,con,nul等特殊文件刪除方法

    如果你在遇到CON不能刪除,PRN不能刪除,LPT不能刪除,COM1不能刪除,COM2不能刪除,COM3不能刪除,COM4不能刪除,COM5不能刪除,COM6不能刪除,COM7不能除,COM8不能刪除,NUL不能刪除、AUX不能刪除
    2012-04-04
  • DELL服務器配置RAID的教程

    DELL服務器配置RAID的教程

    這篇文章主要介紹了DELL服務器配置RAID的教程,本文以DELL R430服務器為例子,通過圖文并茂的形式給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2023-07-07
  • WHMCS V7.4.2 圖文安裝教程

    WHMCS V7.4.2 圖文安裝教程

    這篇文章主要介紹了WHMCS V7.4.2 圖文安裝教程,需要的朋友可以參考下
    2019-04-04
  • Git發(fā)現git push origin master 報錯的解決方法

    Git發(fā)現git push origin master 報錯的解決方法

    本篇文章主要介紹了Git發(fā)現git push origin master 報錯的解決方法,小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-11-11
  • 如何在?Windows?上搭建?NTP?服務器

    如何在?Windows?上搭建?NTP?服務器

    這篇文章主要介紹了在?Windows?上搭建?NTP?服務器的操作步驟,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2023-07-07
  • https協(xié)議詳解

    https協(xié)議詳解

    HTTPS并不是一種新技術,它是在HTTP協(xié)議的基礎上來進行更嚴格的加密。這篇文章主要介紹了https協(xié)議詳解的相關資料,需要的朋友可以參考下
    2022-10-10

最新評論