国产一区二区精品-国产一区二区精品久-国产一区二区精品久久-国产一区二区精品久久91-免费毛片播放-免费毛片基地

千鋒教育-做有情懷、有良心、有品質的職業教育機構

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  應聘面試  >  大數據面試題  > Spark讀取MySQL大表超時問題

Spark讀取MySQL大表超時問題

來源:千鋒教育
發布人:syq
時間: 2022-08-11 16:45:06 1660207506

  場景為Spark讀取一張MySQL表(innodb引擎), 數據量8000萬,無自增ID,業務中一個字段為(訂單ID)主鍵。要將該表數據讀取后寫入到HDFS。下面將詳細介紹Spark讀取MySQL大表超時問題。

Spark 讀取MySQL

  # 直接使用Spark提供的JDBC分區數據選項 partitionColumn,lowerBound,upperBound

  * 不可行,partitionColumn要求是數值類型,這個表中并沒有雖有一些數值類型字段,但是并不合適,因為字段值非遞增,不容易設定分區的上下界限,這就很容易造成數據傾斜。

  # 采用 predicates 方式,定義一個劃分數據的數組規則

  * 使用limit 做分頁將數據劃分為60個分區,同時優化limit查詢,用主鍵做子查詢的方式優化。雖然經過了查詢優化,但是運行時,依然遇到讀取超時錯誤。問題原因是JDBC socketTimeout 設置了3分鐘,但是某些task讀取mysql時,并沒有在3分鐘內返回數據,是一個慢查詢。 在這個場景下解決方式就是調大socketTimeout值就可以了,調成了10分鐘。

  * 這里要注意的是一定要對limit做優化,使用子查詢或者join方式,根據主鍵查詢做分頁。 例如下

  `select * from table_name where id >= (select id from table_name order by id limit 100000, 1) limit 20000`.

  * 如果你直接使用 `select * from table_name limit 100000,20000 `的方式。mysql會查詢出來 120000條數據,然后再扔掉100000條數據,這是完全沒有意義的,會有大量無意義IO操作,影響性能。

  更多關于大數據培訓的問題,歡迎咨詢千鋒教育在線名師,如果想要了解我們的師資、課程、項目實操的話可以點擊咨詢課程顧問,獲取試聽資格來試聽我們的課程,在線零距離接觸千鋒教育大咖名師,讓你輕松從入門到精通。

tags:
聲明:本站稿件版權均屬千鋒教育所有,未經許可不得擅自轉載。
10年以上業內強師集結,手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT