鄭州大數據人工智能培訓 2021-11-22 13:37:30
鄭州云和數據為學員設置大數據人工智能培訓班,通過6個月精細化學習和一線ICT企業原廠項目綜合實戰,培養出符合國家信息產業、信息技術發展需要的高端大數據人工智能工程師。
-
課程介紹
大數據的核心是數據的價值化,整個大數據技術體系緊緊圍繞數據展開。大數據的產業鏈包括數據的采集、存儲、安全、分析和應用,其中大數據分析是大數據價值化的重要手段。
全球每年將新增數十萬個大數據相關的工作崗位、在2019年清華大學計算機系教授武永衛曾言:“中國當下數據人才約有30萬,未來3-5年人才需求量將達到180萬。
云和數據的大數據課程包含了云計算和人工智能開發課程讓你所學知識更成體系更加實用,更能為企業所青睞。大數據主流技術
大數據主流技術-數據采集
使用Flume,可進行流式日志數據的收集。使用Sqoop可以交互關系型數據庫,進行導入導出數據。使用爬蟲技術,可在網上爬取。
大數據主流技術-數據存儲與管理
大數據利用分布式文件系統HDFS、HBase、Hive,實現對結構化、半結構化和非結構化數據的存儲和管理。
大數據主流技術-數據處理與分析
利用分布式并行編程模型和計算框架,結合機器學習和數據挖掘算法,實現對海量數據的處理和分析。課程定位與培養目標
云和數據是騰訊云認證服務一級運營商,百度、華為合作伙伴。以百度人工智能、華為大數據為基礎,騰訊云、百度云、亞馬遜云、5G技術為支撐,打造大數據+人工智能專精課程。通過6個月精細化學習和一線ICT企業原廠項目綜合實戰,培養出符合國家信息產業、信息技術發展需要的高端大數據人工智能工程師。學習完畢具備大數據采集、存儲、清洗、分析、綜合治理的能力,掌握人工智能的核心技術機器學習,相當于2年以上的工作經驗。
課程模式:
貼心的教學模式
拒絕雙元教學,全程面授;拒絕大班授課,小班制教學,每班<=25人;拒絕“放羊式“管理,完善學習管理體系
專業的課程內容
120天“純大數據”課程,直擊大數據工程師崗位核心需求;實戰項目貫穿,涵蓋金融,電商,交通,安平等各個領域。課程內容
一階段課程:大數據開發語言基礎
主要內容:基本程序邏輯、面向對象深入、異常處理機制、常用類、集合&泛型、多線程、MySQL基礎、遠程倉庫、DDL/DCL/DML/DQL、SQL優化、批量處理事務DBUtil、Git管理文件版本、pom.xml詳解。
核心能力培養:掌握Java核心技術、掌握MySQL數據庫、掌握利用JDBC操作數據庫。
第二階段課程:離線場景下的數據存儲和計算
主要內容:企業常用Linux命令、awk,sed,seq,xargs進階命令、HDFS分布式文件系統、MapReduce并行計算、Yarn資源分配、Hive數據倉庫、Flume日志實時采集、Sqoop數據導入導出工具。
核心能力培養:掌握Hadoop生態技術棧:HDFS,MapReduce,Yarn,Zookeeper,Hive,Flume,Sqoop等,掌握ETL技術:Kylin、kettle等、BI工具:Superset、Echarts。項目實戰:企業級電商大數據分析系統之離線數據倉庫項目、客快物流大數據項目。
第三階段課程:數倉建設和實時檢索
主要內容:Redis概述、Redis事務、Jedis和Spring整合、Hbase整體架構、API的使用方式、數據結構檢索與搜索原理、search搜索相關算法、kafka安裝和使用、kafka運行流程和文件存儲、分區原則、消息可靠性。
核心能力培養:掌握No SQL數據庫:Redis,HBase,掌握數據倉庫設計和建設,掌握實時檢索Elastic Search技術。
項目實戰:車聯網實時檢索項目
第四階段課程:Scala編程&Spark分布式計算框架
主要內容:Scala概述、Scala程序邏輯、Scala面向對象編程、隱式轉換、Scala集合、函數式編程、單向環形鏈表、約瑟夫問題、Spark概述、Spark安裝和使用、RDD&算子、Spark SQL、DataSet DataFrame、SparkStreaming、Spark調優。
核心能力培養:掌握Scala語言和算法,掌握Spark分布式計算框架。
項目實戰:萬網信號大數據項目、智能車流量監控平臺項目。
第五階段課程:實時計算與數據挖掘
主要內容:Spark MLlib算法、Spark MLlib統計分析、Spark MLlib分類和回歸、Spark MLlib聚類和降維、Spark MLlib關聯規則與推薦算法、Flink狀態管理與恢復、Flink的Time詳解、Flink SQL、Flink的事件處理。
核心能力培養:掌握數據挖掘、掌握Flink計算引擎。
項目實戰:企業級電商實時數倉項目、推薦系統項目、智慧交通平臺。