回覆列表
  • 1 # 趙89112171

    向這樣人才,太多了,張嘴就來,提筆出結果的人可以說,數不勝數,舉不勝舉,我看跟學不學計算機不發生關係,有的比計算機還快,天生靈通的人,到什麼時候都靈通,靠計算機計箅的,只要知道那十位數就可以,在大數字也離不開那十位數,在計算機上只不過練個速度結果,快漫的事。要問什麼程度,那得看對方要求什麼成度,當然計算結果越快越好啦。謝謝邀請

  • 2 # IT人劉俊明

    隨著大資料的產業化程序逐漸加快,大資料行業的人才短缺問題也越來越引起重視,目前很多高校在近兩年都陸續開設了大資料相關專業,相信未來大資料的發展空間會非常大,從業人數也會越來越多。現在有不少人都轉向大資料方向,尤其以計算機、統計和數學相關專業的比較多,這三個專業也是與大資料關係最為緊密的專業。

    大資料與計算機的關係非常密切,大資料的出現是物聯網、雲計算發展到一定階段的必然產物,所以掌握計算機相關知識對掌握大資料非常重要。在我看來,大資料專業人士需要掌握以下計算機知識:

    第一,作業系統。目前大資料平臺大部分都是基於Linux作業系統,所以掌握Linux系列作業系統的應用對大資料來說非常重要。

    第二,資料庫。資料庫作為大資料平臺的儲存策略是一定要掌握的,包括傳統的關係型資料庫和大資料系統的NoSql資料庫。

    第三,大資料平臺。目前比較流行的大資料平臺包括Hadoop和Spark,掌握這兩個平臺的使用是比較重要的。

    第四,程式語言。目前在大資料開發領域使用比較多的語言包括Python、R、Scala、Java等,掌握程式語言對於大資料開發來說是重要的基礎。

    第五,演算法設計。演算法是進行大資料分析的核心,所以必須掌握常見的大資料分析演算法。

    如果有大資料方面的問題,也可以諮詢我。

  • 3 # 後端漫談

    大資料行業有也有很多崗位劃分,比如大資料開發工程師,大資料運維工程師,大資料分析師等。

    題主是想知道成為一名大資料開發工程師所必須具備的計算機理論知識吧?

    首先,任何IT行業最好是具備計算機的理論知識,(當然對於部分人來說並不是必須的),只有這樣才能在IT行業長遠發展。推薦書籍:深入理解計算機系統,現代作業系統,計算機網路(自頂向下方法),編譯原理等。當然做大資料開發 linux 系統的基本知識是離不開的。其次,可以讀一讀 hadoop 權威指南這本書,特別厚,目前也有很多關於 hadoop 的入門影片以及講座,包括 mapreduce 的基本原理,你可以使用 java 寫一個 worldCount 的程式部署在 hadoop 叢集上跑一跑。讀完之後相信你心中已經有一張大資料開發所需要具備的技能網。學習了 hadoop 之後,需要學習一下 Spark ,因為 spark 是基於記憶體的計算,效率上是量級的提升,目前已經運用非常廣泛。最後推薦個學習路徑吧:
  • 4 # 傳智播客

    成為大資料人才計算機要學到什麼程度?

    不知道樓主所謂的人才是隻是獲得怎樣的成就才是人才。首先要掌握的就是Java語言和Linux作業系統,這兩個是大資料的基礎。學習順序的話不分前後的。

    (1)Java:Java也有很多方向。JavaSE,JavaEE還有JavaME,大資料的話只需要學習Java標準版的JavaSE就可以了,像Servlet、JSP、Tomcat、Struts等在JavaEE方向,在大資料裡面不常用到。但是需要了解,想要成為成為人才的話可以要學習Hibernate或者Mybites的原理,不要只學習API。

    (2)Linux:因為大資料相關軟體都是在Linux上面執行的所以,Linux要學習很紮實。它能讓你更好的理解hadoop,hive,hbase,spark等大資料軟體的執行環境和網路環境配置,能少踩很多坑,學會shell就能看懂指令碼這樣更容易理解配置大資料叢集。

    看路線圖可以按照路線圖去逐步的學習。下面再來回答下大戶局必須要掌握的知識點:

    Hadoop:這事現在流行的大資料處理平臺。包括HDFS、MapReduce和YARN,HDFS是儲存資料的地方想我們的電腦硬碟一樣,都儲存在這個上面。MapReduce是對資料進行處理計算的,它的特點是不管多大的資料只要有時間就能跑完。YARN是體現Hadoop平臺概念的重要元件。

    大資料中重要的要掌握的幾點:

    Zookeeper:安裝Hadoop的HA的時候就會用到它,以後的Hbase也會用到它。需要把它安裝正確 ,讓它正常的跑起來。

    Mysql:在Linux上把它安裝好,執行起來,會配置簡單的許可權,修改root密碼,建立資料庫。

    Sqoop:這個是用於把Mysal裡面的資料匯入Hadoop裡面。

    Hive:和Pig同理,想要變得厲害可以都學習。

    Oozie:可以幫你管理你的Hive或者MapReduce、Spark指令碼還能檢查你的程式執行的是否正確。

    Hbase:這個是Hadoop生態體系中的NOSQL資料庫,是按照key和value的形式儲存的並且key是唯一的。所以可以幫你做資料排重,它與MYSQL相比儲存的資料量大。

    Kafka:這個是佇列工具。可以利用它來做線上實時資料的入庫或者是入HDFS,與Flume的工具配合使用,專門用來提供對資料進行簡單處理。

    Spark:這個工具是用來彌補MapReduce處理資料速度上的缺點,特點就是把資料裝載到記憶體裡面去計算。適合做迭代運算,Java語言或者Scala都可以操作它,他們都是用JVM的。

    上面的知識點和線路圖你能完整的學下來掌握,基本去哪家企業都很搶手~

  • 中秋節和大豐收的關聯?
  • 你覺得美國在日本投放的原子彈是歷史騙局嗎?為什麼?