国产一区二区精品-国产一区二区精品久-国产一区二区精品久久-国产一区二区精品久久91-免费毛片播放-免费毛片基地

千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機構

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  應聘面試  >  大數(shù)據(jù)面試題  > Flink Spark on Yarn分布式日志收集問題

Flink Spark on Yarn分布式日志收集問題

來源:千鋒教育
發(fā)布人:wjy
時間: 2022-09-02 15:42:00 1662104520

對于Flink,Spark在Yarn上提交的LongTime Job(比如一個批處理作業(yè)要運行幾個小時或者本身就是實時作業(yè)),其作業(yè)的運行日志我們不能等到作業(yè)結束后,通過Yarn日志聚合后查看,我們希望作業(yè)提交后就能夠馬上看到運行日志( 這里注意,你的作業(yè)被調(diào)度到集群的各個計算節(jié)點中,比如你的集群有100個節(jié)點,你的作業(yè)可能被調(diào)度到幾十個個節(jié)點中),如何能夠?qū)崟r方面的查看所有節(jié)點產(chǎn)生的日志呢?

# 總體思路,無論是spark,flink 都使用log4j記錄日志,只不過默認輸出是Console和文件,我們通過定義 log4j文件,將日志實時發(fā)送到一個位置,集中管理 

* 方案1: 定義log4j KafkaAppender, 將日志異步發(fā)送到Kafka,之后可以將數(shù)據(jù)發(fā)送到ES,通過Kibana查看即可 

* 方案2: 定義log4j SyslogAppender,將日志發(fā)送到rsyslog服務器(基于UDP傳輸,更高效),所有節(jié)點日志可以落到本地文件,這樣可以在這里通過文件查看日志,當然也可以接上ELK這一套。 

# 方案1比方案2要重一些,因為你需要Kafka集群,而rsyslog非常輕量,并且數(shù)據(jù)通過UDP協(xié)議傳輸更為高效。

Flink Spark on Yarn分布式日志收集問題

tags:
聲明:本站稿件版權均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
10年以上業(yè)內(nèi)強師集結,手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內(nèi)將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT
快速通道