UpdataStateBykey updataStateBykey是特殊的reduceByKey, 相當于oldValue+reduceByKey(newValue1,newValue2),通過傳入一個updateFunc來實現批次間數據累加的操作。
實現它必須設置checkPoint路徑,updataStateBykey會自動將每次計算的結果持久化到磁盤,批次間的數據則是緩存在內存中。
缺點:大量占用內存,大量產生小文件 MapwithState mapwithState是spark1.6新增的累加操作,目前還在測試中,它的原理網上查不到,只知道是updataStateBykey的升級版,效率提升10倍。
缺點:資料不全,社區很小 不建議使用狀態流累加操作,建議用窗口+第三方存儲(redis)來達到同樣的效果。
Spark Streaming中的updateStateByKey和mapWithState的區別和使用。
UpdateStateByKey:統計全局的key的狀態,但是就算沒有數據輸入,他也會在每一個批次的時候返回之前的key的狀態。
這樣的缺點就是,如果數據量太大的話,而且我們需要checkpoint數據,這樣會占用較大的存儲。
如果要使用updateStateByKey,就需要設置一個checkpoint目錄(updateStateByKey自己是無法保存key的狀態的),開啟checkpoint機制。因為key的state是在內存維護的,如果宕機,則重啟之后之前維護的狀態就沒有了,所以要長期保存它的話需要啟用checkpoint,以便恢復數據。
MapWithState:也是用于全局統計key的狀態,但是它如果沒有數據輸入,便不會返回之前的key的狀態,有一點增量的感覺。
這樣做的好處是,我們可以只關心那些已經發生變化的key,對于沒有數據輸入,則不會返回那些沒有變化的key的數據。
這樣即使數據量很大,checkpoint也不會像updateStateByKey那樣,占用太多的存儲。