1、讓面試官記住你的名字。很多人在介紹自己名字的時候僅僅只有簡單的一句“我叫某某某”,直到你的自我介紹完畢,面試官也沒有記住你的名字,如果後續的自我介紹中沒有突出的表現,那麼這樣的自我介紹註定是失敗的。
2、告訴面試官和應聘職位相關的工作經歷。在自我介紹自己的工作經歷時,一定要注意哪些經歷是和應聘職位相關,對應聘有幫助,哪些是毫無意義的。例如應聘技術人員的職位,我們主要講從事本職工作的經歷,如果有從事其他行業的經歷,比如從事過銷售,組織,管理工作的,也可以略微提一下,往往會對應聘起到一定的幫助。
3、在面試官面前展現性格Sunny的一面。性格也是面試官需要考察的一項,一般來說活潑、外向的性格始終會受到大家的親睞,所以我們在面試官面前一定要展示性格Sunny的一面,即使內向,也不能表現出來。
4、簡單的介紹一下自己的未來規劃。未來規劃這一項是為了告訴面試官,我是一個有計劃、有目標、有理想的人,我參加面試是因為我對這份工作比較熱愛,而不是為了混口飯吃而應聘這項工作。很多老闆最怕找到以混日子為目的的員工。
5、注意揚長避短。揚長避短也就是說在面試時儘量選擇自己好的方面來說,只說自己的優點,避免談及自己的缺點。從人性的角度來講,人們總是對負面的新聞感興趣,因此在面試時,面試官會千方百計的發現你的缺點,你的弱項,如果我們主動將缺點暴露給對方,那麼產生的影響往往是負面的。
細節決定成敗,一個簡單的自我介紹雖然只有短短的幾分鐘,但是其內容卻包羅永珍,因此在面試時自我介紹的完美與否是舉足輕重的。
二、大資料面試要準備一些常見的面試題:
1、你會Java語言嗎?熟悉到什麼程度?
2、你最喜歡的程式語言是什麼?為什麼?
3、處理過的最大的資料量?你是如何處理他們的?處理的結果如何。
2、在處理大資料過程中,如何保證得到期望值?
3、如何讓一個網路爬蟲速度更快、抽取更好的資訊以及更好總結資料從而得到一干淨的資料庫?
6、如何把非結構化的資料轉換成結構化的資料?這是否真的有必要做這樣的轉換?把資料存成平面文字檔案是否比存成關係資料庫更好?
7、如何判別mapreduce過程有好的負載均衡?什麼是負載均衡?
8、Spark和Hive的區別,以及Spark和Hive的資料傾斜調優問題?
9、Hive和Hbase的區別?
10、MapReduce的思想,以及MapReduce調優問題?
11、你所瞭解的開源網站?
12、有兩個叢集,每個叢集有3個節點,使用hive分析相同的資料,sql語句完全一樣,一個叢集的分析結果比另外一個慢的多,給出造成這種現象的可能原因?
13、Hbase的最佳化?
14、叢集的版本,以及叢集的瓶頸問題?
15、CRM專案,怎麼跟Spark結合?
16、如何建立一個關鍵字分類?
17、海量日誌資料,提取出某日訪問百度次數最多的那個IP?
18、Hadoop和Spark處理資料時,出現記憶體溢位的處理方法?
19、有一個1G大小的一個檔案,裡面每一是一個詞,詞的大小不超過16位元組,記憶體大小限制大小1M,返回頻率最高的50個詞。
20、你是如何處理缺少資料的?你是推薦使用什麼樣的處理技術,或者說你是用什麼樣的技術處理呢?
1、讓面試官記住你的名字。很多人在介紹自己名字的時候僅僅只有簡單的一句“我叫某某某”,直到你的自我介紹完畢,面試官也沒有記住你的名字,如果後續的自我介紹中沒有突出的表現,那麼這樣的自我介紹註定是失敗的。
2、告訴面試官和應聘職位相關的工作經歷。在自我介紹自己的工作經歷時,一定要注意哪些經歷是和應聘職位相關,對應聘有幫助,哪些是毫無意義的。例如應聘技術人員的職位,我們主要講從事本職工作的經歷,如果有從事其他行業的經歷,比如從事過銷售,組織,管理工作的,也可以略微提一下,往往會對應聘起到一定的幫助。
3、在面試官面前展現性格Sunny的一面。性格也是面試官需要考察的一項,一般來說活潑、外向的性格始終會受到大家的親睞,所以我們在面試官面前一定要展示性格Sunny的一面,即使內向,也不能表現出來。
4、簡單的介紹一下自己的未來規劃。未來規劃這一項是為了告訴面試官,我是一個有計劃、有目標、有理想的人,我參加面試是因為我對這份工作比較熱愛,而不是為了混口飯吃而應聘這項工作。很多老闆最怕找到以混日子為目的的員工。
5、注意揚長避短。揚長避短也就是說在面試時儘量選擇自己好的方面來說,只說自己的優點,避免談及自己的缺點。從人性的角度來講,人們總是對負面的新聞感興趣,因此在面試時,面試官會千方百計的發現你的缺點,你的弱項,如果我們主動將缺點暴露給對方,那麼產生的影響往往是負面的。
細節決定成敗,一個簡單的自我介紹雖然只有短短的幾分鐘,但是其內容卻包羅永珍,因此在面試時自我介紹的完美與否是舉足輕重的。
二、大資料面試要準備一些常見的面試題:
1、你會Java語言嗎?熟悉到什麼程度?
2、你最喜歡的程式語言是什麼?為什麼?
3、處理過的最大的資料量?你是如何處理他們的?處理的結果如何。
2、在處理大資料過程中,如何保證得到期望值?
3、如何讓一個網路爬蟲速度更快、抽取更好的資訊以及更好總結資料從而得到一干淨的資料庫?
6、如何把非結構化的資料轉換成結構化的資料?這是否真的有必要做這樣的轉換?把資料存成平面文字檔案是否比存成關係資料庫更好?
7、如何判別mapreduce過程有好的負載均衡?什麼是負載均衡?
8、Spark和Hive的區別,以及Spark和Hive的資料傾斜調優問題?
9、Hive和Hbase的區別?
10、MapReduce的思想,以及MapReduce調優問題?
11、你所瞭解的開源網站?
12、有兩個叢集,每個叢集有3個節點,使用hive分析相同的資料,sql語句完全一樣,一個叢集的分析結果比另外一個慢的多,給出造成這種現象的可能原因?
13、Hbase的最佳化?
14、叢集的版本,以及叢集的瓶頸問題?
15、CRM專案,怎麼跟Spark結合?
16、如何建立一個關鍵字分類?
17、海量日誌資料,提取出某日訪問百度次數最多的那個IP?
18、Hadoop和Spark處理資料時,出現記憶體溢位的處理方法?
19、有一個1G大小的一個檔案,裡面每一是一個詞,詞的大小不超過16位元組,記憶體大小限制大小1M,返回頻率最高的50個詞。
20、你是如何處理缺少資料的?你是推薦使用什麼樣的處理技術,或者說你是用什麼樣的技術處理呢?