-
1 # 加米穀大資料張衡
-
2 # 商業場景互動服務
大資料技術與應用專業是新興的“網際網路+”專業,大資料技術與應用專業將大資料分析挖掘與處理、移動開發與架構、人軟體開發、雲計算等前沿技術相結合,並引入企業真實專案演練,依託產學界的雄厚師資,旨在培養適應新形勢,具有最新思維和技能的“高層次、實用型、國際化”的複合型大資料專業人才。
近幾年來,網際網路行業發展風起雲湧,而移動網際網路、電子商務、物聯網以及社交媒體的快速發展更促使我們快速進入了大資料時代。截止到目前,人們日常生活中的資料量已經從TB(1024GB=1TB)級別一躍升到PB(1024TB=1PB)、EB(1024PB=1EB)乃至ZB(1024EB=1ZB)級別,資料將逐漸成為重要的生產因素,人們對於海量資料的運用將預示著新一波生產率增長和消費者盈餘浪潮的到來。大資料時代,專業的大資料人才必將成為人才市場上的香餑餑。當下,大資料從業人員的兩個主要趨勢是:1、大資料領域從業人員的薪資將繼續增長;2、大資料人才供不應求。
填補大資料技術與應用專業人才巨大缺口的最有效辦法無疑還需要依託眾多的高等院校來培養輸送,但網際網路發展一日千里,大資料技術、手段日新月異,企業所需要的非常接地氣的人才培養對於傳統以培養學術型、科研型人才為主要使命的高校來說還真有些難度。
幸好這個問題已經被全社會關注,政府更是一再提倡產教融合、校企合作來創辦新型前沿幾乎以及“網際網路+”專業方向,也已經有一些企業大膽開始了這方面的創新步伐。據我瞭解,慧科教育就是一家最早嘗試高校校企合作的企業,其率先聯合各大高校最早開設了網際網路營銷,這也是它們的優勢專業,後來慧科教育集團又先後和北京航空航天大學、對外經濟貿易大學、貴州大學、華南理工大學、宜春學院、廣東開放大學等高校在碩、本、專各個層次開設了大資料專業方向,在課程體系研發、教學授課及實訓實習環節均有來自BAT以及各大行業企業一線的技術大拿參與,所培養人才能夠很好地滿足企業用人需求。
共享一些主要特色給大家參考:
1.培養模式
採用校企聯合模式,校企雙方發揮各自優勢,在最大限度保證院校辦學特色及專業課程設定的前提下,植入相應前沿科技及特色人才崗位需求的企業課程。
2.課程體系
大資料專業的課程體系包括專業基礎課、專業核心課、大資料架構設計、企業綜合實訓等四個部分。
3.實驗室建設
阿里巴巴是全球企業間(B2B)電子商務的著名品牌,是目前全球最大的網上貿易市場。作為國內網際網路大資料的先驅,阿里巴巴集團曾在2008年就把大資料作為公司的一項基本戰略。阿里大資料實驗室為移動雲計算和大資料專業學生提供企業實戰環境以及真實企業專案,平臺引入了大資料的採集、挖掘等技術。學生在實驗室中完成阿里基於Android、iOS等平臺的app開發,並可以在平臺上進行資料資訊交易、資料探勘、資料統計與分析等應用,不斷提升自己運用、解釋、挖掘資料的能力,同時完成新技術領域的探索與實現。
-
3 # IT人劉俊明
大資料是我的主要研究方向之一,目前也在指導大資料方向的研究生,所以我來回答一下這個問題。
大資料應用技術專業主要以培養大資料應用技能為主,相對於資料科學與大資料專業來說,大資料應用技術專業主要培養技能型人才,以滿足廣大傳統行業對於大資料應用人才的需求。大資料應用技術專業的畢業生未來可以從事的崗位包括資料採集、資料整理、大資料運維、資料分析、大資料應用開發等。
在知識結構的設計上,大資料應用技術涉及到數學、統計學、程式語言、大資料平臺、作業系統、資料分析工具等內容,另外也會涉及到物聯網、雲計算等相關方面的內容。數學和統計學是大資料技術的重要基礎,即使從事落地應用也要重點掌握一些常見的演算法。
程式語言的學習通常會集中在Java、Python、Scala、R等程式語言上,從目前就業的角度出發,Java是不錯的選擇。如果未來想從事大資料應用開發崗位,那麼需要重點學習一下程式語言部分。
大資料平臺的學習是大資料應用技術的重點學習內容之一,大資料平臺的學習內容包括大資料平臺的部署、除錯、維護等內容。目前Hadoop、Spark是比較常見的大資料平臺,同時這兩個平臺也比較適合初學者學習和實驗。經過多年的發展,目前大資料平臺的元件已經逐漸豐富,所以這部分學習內容也相對比較多。
資料分析工具的學習可以從基本的Excel開始,然後進一步學習各種BI工具,在學資料分析工具的過程中也涉及到一些常見的資料分析演算法以及資料庫知識。
最後,隨著大資料技術逐漸落地到廣大的傳統行業,未來大資料應用專業的就業前景還是比較廣闊的。
-
4 # 山東新華電腦學院有限公司
Linux系統、Java語言、資料結構、大資料導論、資料庫基礎、Python語言、資料採集&標註、HADOOP運維、Spark資料分析、資料視覺化、企業專案綜合實踐等課程。學生可根據個人興趣和就業方向選擇相關課程,並系統學習。
回覆列表
首先,做大資料要有Java語言和Linux作業系統兩項基礎,在大資料開發上,這兩項是學習大資料應用技術的重要基石。
這裡不談具體的課程,只說現在市場主流選用的幾代大資料處理框架,對這幾代框架技術有相應程度的掌握,基本上找工作也不愁了。
Hadoop
Hadoop是大資料處理第一代框架,至今也仍然佔據重要的市場地位,Hadoop必學。
Hadoop核心元件,HDFS、MapReduce和YARN,整個Hadoop生態圈發展至今已有超過20個元件框架,都需要有所瞭解和掌握。
Spark
Spark是用來彌補基於Hadoop的MapReduce引擎,在處理資料速度上的缺點,它的特點是把資料裝載到記憶體中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別喜歡它。
Storm
Storm是開源的分散式實時計算系統。利用Storm可以很容易做到可靠地處理無限的資料流。Apache Storm採用Clojure開發。Storm有很多應用場景,包括實時資料分析、聯機學習、持續計算、分散式RPC、ETL等。
Flink
Apache Flink是一個分散式大資料處理引擎,可對有限資料流和無限資料流進行有狀態計算。可部署在各種叢集環境,對各種大小的資料規模進行快速計算。