鍍金池/ 問答/人工智能/ spark中分區(qū)是如何產(chǎn)生的

spark中分區(qū)是如何產(chǎn)生的

spark中的partition可以通過api來設(shè)置,如果不設(shè)置的會(huì),系統(tǒng)會(huì)自動(dòng)分區(qū)嗎?分區(qū)的邏輯是什么?按照block,每個(gè)block來設(shè)置一個(gè)分區(qū)?
有沒有人啊- -。

回答
編輯回答
尋仙

"Normally, Spark tries to set the number of partitions automatically based on your cluster. However, you can also set it manually by passing it as a second parameter to parallelize"文檔是這么說的.

2018年1月9日 17:19
編輯回答
尛憇藌

會(huì)根據(jù)你的電腦的cpu核數(shù)自動(dòng)分配

2018年8月18日 11:47
編輯回答
慢半拍

如果是HDFS讀出來,一個(gè)block就是一個(gè)分區(qū)。如果從kafka讀,一個(gè)kafka Partition就是一個(gè)分區(qū)……

2017年11月17日 02:55