• <noscript id="ynq8u"></noscript>

    <s id="ynq8u"></s>
  • <strong id="ynq8u"></strong>

    <code id="ynq8u"><blockquote id="ynq8u"></blockquote></code>

    <small id="ynq8u"></small>
      1. 全國咨詢熱線:400-618-4000

        2019年大數據課程大綱

        目前課程版本:7.0   升級時間:2019.07.22   查看詳細

        大數據課程設計理念

        •  

          完全面向零基礎的大數據課程

          我們的課程幫助了近500名零基礎的學員高薪就業,近2000名學生正在努力蛻變中。0基礎也能高薪就業的大數據課程。

        •  

          更新潮緊隨技術發展浪潮

          全面升級Spark核心就業項目,新增第四代大數據處理框架Flink,強化推薦系統實戰并擴充至7天。

        •  

          更真實深度還原企業應用場景

          所有項目均是來自企業實戰項目,報表分析、日志分析、推薦系統/廣告系統、反欺詐系統、為就業提供強力保障。

        •  

          更全面典型技術點線面橫向擴展

          課程全面覆蓋大數據技術,數據收集、存儲、計算、挖掘、展現,離線分析/實時分析/內存計算一網打盡。

        •  

          更廣泛就業領域

          大數據時代已然到來,在數據已經在一線企業、中小型企業、傳統企業、互聯網企業全面落地。就業不再局限于互聯網行業。

        大數據基礎班-課程大綱

        學習對象

        0基礎0經驗的小白人員;想通過最低的成本來試一下自己是否適合做大數據相關工作的轉型人員。

        注:獲取更多免費學習視頻+資料+筆記,請加QQ:2632311208。

        上課方式

        全日制脫產,每周5天上課, 上兩天課休息一天的上課方式(實際培訓時間可能因法定節假日等因素發生變化)

        培訓時間

        部分校區可能會根據實際情況有所調整,詳情可詢咨詢老師   點擊咨詢


        大數據基礎班課程大綱
        所處階段 主講內容 技術要點 學習目標
        第一階段:
        Java基礎
        計算機基礎 DOS常用命令、Java概述、JDK環境安裝配置、環境變量配置、Java程序入門 核心能力培養:
        能夠掌握DOS系統常用基本命令;
        熟練使用eclipse編寫java代碼;
        熟練使用java語言的常用對象;
        使用java編寫單機應用程序;
        掌握面向對象編程思想,為以后深入學習JavaEE就業課程打下堅實的基礎。

        具備能力及市場價值:
        掌握Java基礎知識,為后面就業班的java課程和大數據課程打下堅實的基礎。
        編程基礎 常量與變量、數據類型、運算符、流程控制語句、方法、數組
        面向對象 面向對象思想、類與對象、成員變量和局部變量、封裝、 this關鍵字、構造方法
        常用類 Object類、Scanner類、Random類、String、StringBuilder類
        集合操作 集合概述、集合特點、ArrayList集合
        IO操作 字符輸入流、字符輸出流、字符緩沖輸入流、字符緩沖輸出流、 復制文件、集合與文件中數據相互讀寫。

        大數據就業班-課程大綱

        學習對象

        本課程適合于計算機專業,有一定Java基礎、通過入學考核的未就業人士。

        提示:測試題主要考察您是否具備Java基礎,以便我們統一入學基礎,更好地開展教學工作。如果您感覺測試題很難,我們建議您參加我們的Java基礎班學習。

        上課方式

        全日制脫產,每周5天上課, 上兩天課休息一天的上課方式(實際培訓時間可能因法定節假日等因素發生變化)

        培訓時間

        部分校區可能會根據實際情況有所調整,詳情可詢咨詢老師   點擊咨詢

        大數據就業班課程大綱
        所處階段 主講內容 技術要點 學習目標
        第二階段:
        JavaWeb階段
        Java基礎增強 類加載器、反射、網絡編程、端口和協議、TCP協議、服務端、客戶端、多線程、線程和進程、線程的生命周期、線程安全、代碼同步、注解、JDK常用注解、自定義注解 核心能力培養:
        運用常用的網頁開發技術設計網頁;
        掌握WEB系統交互原理;
        掌握JavaWeb開發核心技術;
        掌握JavaWeb高級技術,創建更好的Web應用程序;
        具備B/S結構軟件開發能力;
        掌握數據庫的相關技術;
        掌握如何使用Maven管理項目工程。

        具備能力及市場價值:
        能夠完成B/S結構網站開發,具備了真實環境的項目部署能力;
        能夠完成中小型企業管理系統等傳統項目的開發。
        前端 HTML、CSS、JavaSript、BootStrap
        數據庫 MySQL數據庫、MySQL單表操作、MySQL多表操作、MySQL事物、 MySQL存儲引擎、JDBC、JDBCDataSource
        Web核心 Tomcat、Http協議、servlet入門、Rquest、Response、JSP、MVC、 Cookie、Session、JSP、ETLJSTL、Filter、listener
        web增強 Jquery、Ajax、ajax跨域、分頁
        項目構建及管理 Maven項目構建、管理、編譯、倉庫配置、 Git項目管理
        可視化項目 采集數據(埋點) 、echarts的快速入門 、使用echarts顯示分析結
        第三階段:
        Hadoop技術棧實戰詳解
        Linux實戰 Linux概述、vmware workstation安裝、vmware網卡net1和net8介紹、centos安裝和配置、Linux目錄結構、超級用戶和普通用戶介紹和區別、linux的gateway、netnask和DNS講解、Linux的網卡配置介紹(networking)、主機名配置(臨時和永久)、IP配置(DHCP和static)、防火前介紹和配置(iptables和sellinux)、ssh工具安裝、連接和使用、SCP工具安裝、連接和使用、關機和重啟操作、Linux用戶、文件和權限操作 用戶管理操作、文件、文件夾管理操作、文件查找操作(find、grep)、VI和VIM文本編輯器操作、文件壓縮和解壓操作(tar、unzip)、Linux的RPM查詢、安裝和卸載Linux shell編程、循環編程(if、case、for、while)、awk、sed文本處理操作、ssh無密碼登錄配置、scp多節文件拷貝操作、expect介紹和使用、yum本地源配置、nestat 查看頓口使用情況、查看節點的CPU、cores、內存的大小、top 、iostat命令的使用 核心能力培養:
        能夠掌握DOS系統常用基本命令;
        熟練使用eclipse編寫java代碼;
        熟練使用java語言的常用對象;
        使用java編寫單機應用程序;
        掌握面向對象編程思想,為以后深入學習JavaEE就業課程打下堅實的基礎。

        具備能力及市場價值:
        掌握Java基礎知識,為后面就業班的java課程和大數據課程打下堅實的基礎。
        大數據基礎和
        硬件介紹
        什么叫大數據、大數據的特點、分布式存儲概念、分布式計算的概念、服務器種類介紹、機架、交換機、網絡拓撲、Raid、IDC數據中心
        Zookeeper Zookeeper的應用場景、Zookeeper的架構和原理、Zookeeper的存儲模型、Zookeeper的Znode創建、Zookeeper的選舉機制、Zookeeper的客戶端操作
        HDFS組件 HDFS設計的特點、master-slave架構介紹、block塊存儲、RF拷貝因子、機架感知、block拷貝策略、namenode功能介紹、datanode功能介紹、Metadata元數據介紹、讀寫流程、HDFS Federation功能介紹、HDFS snapshots快照介紹、NameNode HA架構和原理、HDFS管理員常用操、HDFS權限控制
        MapReduce組件 MapReduce設計的目標、MapReduce架構和原理、MapReduce快速入門、Mapper抽象類、Reducer抽象類、Split機制、Map和Reduce個數的確定、Combinar機制、Partition機制、自定義Partition、MapReduce序列化、MapReduce自定義排序、Mapreduce數據的壓縮、InputFormat抽象類、自定義InputFormat、Recordreader機制、自定義、RecordReader、二次排序
        Yarn組件 Yarn原理和架構、RM和NM功能介紹、Application Master功能介紹、Container介紹、Container資源的封裝(CPU、內存和IO)
        資源調度策略(FIFO、Fair和Capacity)、Fair Scheduler配置和使用、Yarn實現計算資源多租戶配置和使用
        Hive組件 Hive的功能介紹、創建表、本地加載數據、HDFS加載數據、基本數據類型、復合數據類型、靜態分區、動態分區、臨時表、Metastore服務、HiveServer2、內置函數、自定義UDF和UDAF、數據壓縮、ORC、Parquet、自動化腳本、常見性能優化、explain執行計劃詳解
        Impala組件 Impala的應用場景、架構和原理、安裝、基本查詢語法、shell交互窗口、數據加載、JDBC連接Impala、Impala的優化、invalidate metadata、compute stats使用
        Sqoop&CDC&DataX sqoop功能介紹、sqoop架構和原理、import命令、export命令、抽取mysql數據到HDFS、抽取HDFS數據到mysql、抽取mysql數據到Hive、抽取Hive數據到mysql、sqoop增量抽取數據、CDC工具介紹、OGG功能介紹和影場景、canal功能介紹和應用場景、DataX功能介紹和應用場景
        Oozie&Azkaban Oozie的安裝與介紹、Oozie語法介紹、Oozie任務調度配置-XML、Oozie的工作流調度機制、Azkaban的安裝
        Azkaban架構和原理、Azkaban的任務調度
        第四階段:
        NoSQL、Kafka和ELK技術實戰
        Redis&Hbase 組件 NoSQL介紹、Redis的原理和架構、Redis的使用、Redis的集群搭建、Hbase的應用場景、Hbase架構和原理、表的的創建和使用、列簇、多版本控制、增刪改查操作、Java API操作、HFile讀取、split操作、flush操作、compact操作、過濾器、RowKey設計和優化策略、HBase+Redis微博實戰案例 核心能力培養:
        掌握NoSQL數據庫的特點和應用場景;
        掌握Hbase的應用場景和核心原理;
        掌握Hbase的RowKey設計的策略;
        掌握Hbase常用的性能優化手段;
        掌握分布式數據發布和訂閱的工具Kafka;
        掌握Kafka工具的使用和性能優化;
        掌握ELK技術棧(end-to-end)的應用場景;
        掌握Logstash數據抽取、清洗,ElasticSearch分布式檢索,Kibana數據展示的應用。

        可解決現實問題:
        解決Hbase的RowKey高性能設計策略,滿足業務的需求;
        解決Hbase的性能瓶頸,解決業務問題對Hbase高性能的挑戰;
        解決企業里面海量數據實時傳輸的問題;
        解決海量日志快速檢索和監控問題。

        市場價值:
        具備大數據高性能數據讀寫的常用技術解決方案開發思想,為以后學習大數據項目階段打下堅實的基礎。
        Kafka組件 為什么需要消息系統、kafka應用場景、kafka架構和原理、Kafka的CAP特性、topic(創建、修改和刪除)、partition策略、自定義Partition、offset、replication、Message讀寫過程、Message的存儲策略、producer、consumer、Consumer Group使用、Java API操作、監控工具和優化
        ELK技術棧 Elasticsearch的功能、架構和原理、拷貝機制、Head插件、Index索引、Get、Delete、Update、聚合操作、監控插件bigdesk、DSL、SQL插件使用、ELK的應用場景介紹、Logstash的功能介紹、Logstash常用插件介紹、kibana的功能介紹、數據探索、可視化、常用插件使用、ELK實戰
        第五階段:
        Spark技術棧實戰詳解
        Scala語言 Scala基礎、聲明變量、數據類型、條件表達式、塊表達式、循環、方法和函數、數組、元組、集合、Iterator、構造器、伴生對象、akka 核心能力培養:
        掌握分布式內存計算的思想;
        掌握Spark分布式計算的架構和思想;
        掌握Spark和Mapreduce分布式計算框架的比較和區別;
        掌握Spark的RDD、DAG、Task、Partition等設計思想;
        掌握Spark SQL的功能、SparkSQL+Hive的整合;
        掌握DataFrame、DataSet的編程模型;
        掌握Structured Streaming的應用場景和與Kafka的整合;
        掌握MLlib數據挖掘的思想和GraphX圖計算的思想;
        掌握Spark技術棧的高級特性和性能調優的能力。

        可解決現實問題:
        解決企業面對海量數據處理慢的問題;
        解決大數據平臺數據挖掘的應用場景;
        解決大數據平臺實時計算的應用場景;
        解決Spark在企業級應用常見的問題和性能調優的方法和技巧。

        市場價值:
        目前Spark是企業級大數據平臺必備的使用技能,Spark對找工作有著決定性的優勢,是企業級的大數據離線分析、數據挖掘、實時計算不可或缺的技術棧。
        Spark Core Spark的應用場景、架構和原理、入門案例、Spark Session講解、RDD的概念和特性、Transformation RDD講解、Action RDD講解、Partition、Task、RDD的依賴關系、RDD的容錯機制、RDD的存儲級別、RDD的緩存機制、RDD的廣播操作、DAG思想、DAG的生成、DAG的處理過程、運行機制、Driver和Executor
        Spark SQL Spark SQL功能介紹、DataFrame、DataSet、RDD、Dataset和DataFrame的轉換、讀寫Hive表數據、讀寫HDFS的數據、DataFrame的API操作、讀取文件(txt、CSV、Json、parquet)、臨時表、讀寫RDBMS、Spark SQL執行計劃、Spark SQL的性能優化
        Structured Streaming Structured String的功能介紹、input功能、output功能、window操作、watermark操作、過期數據操作、去重數據操作、
        整合Socket數據、整合Kafka數據、OutputModel(Append\complete\update)功能、
        Flume+kafka+Structured Streaming實現用戶訪問行為的實時分析
        Spark Mllib Mllib的決策樹和隨機森林、Mllib線性回歸原理及使用、Mllib邏輯回歸原理及使用、Mllib KMeans原理及使用、Mllib樸素貝葉斯原理及使用、Mllib關聯算法原理及使用、Mllib的ALS推薦算法原理及使用、Mllib實現電信用戶流失模型案例
        Spark GraphX 什么是圖、圖的組成和概念、GraphX構造圖、GraphX圖的基本操作、 GraphX實現最短路徑、 GraphX最小連通圖、
        GraphX PageRank算法實現、Neo4j圖數據庫使用、GraphX 社交圖的構建
        Spark高級 和優化 DAG優化、核心參數的解釋和優化、Shuffle原理和優化、內存管理機制(堆內和堆外)、通信協議Netty原理、
        Executor的性能優化、核心參數優化、核心源碼解讀
        第六階段:   
        Flink技術棧實戰詳解
        Flink Core Flink的運行機制、Flink組件和邏輯計劃、Flink執行計劃生成、JobManager中的基本組件、TaskManager、算子、網絡、水印WaterMark、CheckPoint、任務調度與負載均衡 核心能力培養:
        掌握分布式實數計算框架架構和思想;
        掌握Flink、Spark和MapReduce的區別;
        掌握Flink流式計算的功能和應用;
        掌握Flink SQL的使用;
        掌握Flink DataStream的使用;
        掌握Flink CEP復雜事件處理的應用場景;
        掌握Flink的常用優化手段和技巧。

        可解決現實問題:
        解決企業里面海量數據對實時性要求要的數據分析和應用;
        解決企業里面流式復雜事件處理的問題;
        解決Flink企業級應用常見的優化技巧和手段。

        市場價值:
        Flink目前的人才需求缺口非常的大、非常的稀缺
        目前Flink在大型互聯網公司使用的非常的廣泛,在傳統行業Flink目前也是處在一個爆發的階段。
        Flink StreamSQL StreamSQL的功能介紹、StreamSQL的編程接口介紹、StreamSQL常用算子介紹、StreamSQL的Window操作、StreamSQL和Kafka整合
        Flink SQL Environment功能、注冊一個Table、注冊一個Table Source、注冊一個外部Catalog(目錄)、Table API和SQL 操作、注冊Table、將Table轉換為DataStream或者DataSet、Table的執行計劃
        Flink CEP CEP的應用場景、CEP原理、單個模式、混合模式、忽略策略、示例場景實現
        Flink項目實戰 Flume+Kafka+Flink+Hbase+Sqoop+canal+MySQL案例實戰
        第七階段 :  
        大數據新技術實戰詳解
        Kudu Kudu的應用場景、原理和架構、分區策略、讀寫過程、常用操作、Kudu整合Impala實戰 核心能力培養:
        掌握Kudu的功能和應用場景;
        掌握Kylin的功能和應用場景;
        掌握Druid的功能和應用場景;
        掌握維度建模的方法和常用的技術。

        可解決現實問題:
        解決企業級OLAP的解決方案;
        解決企業級實時數倉的解決方案;
        解決企業里面離線的指標分析遇到的問題。

        市場價值:
        Kudu、Kylin和Druid目前人才需求量在不斷的增加;
        未來大數據平臺的離線或者流式的指標統計基本全用Kylin和Druid實現。
        Kylin Kylin的應用場景、原理和架構、Hive數據加載、本地數據加載、Kafka數據加載、創建Module、創建Cube、增量Cube、Cube優化、Kylin+Hive實戰
        Druid Druid應用場景、集群搭建、數據加載、重要概念、架構及原理、數據查詢、元數據、實時應用案例
        數據倉庫概念和設計方法 數據倉庫的概念、數據模型概念、、維度模型、雪花模型、數據架構、數據分層介紹、ODS層設計、DW層設計、DWB/S層設計、DM層設計、應用層設計、基于Hadoop大數據平臺實現數據倉庫、企業級數據倉庫案例介紹、企業級數據倉庫設計的規范
           第八階段:    
        項目實戰一
        《企業級360°全方位用戶畫像》技術棧 Hadoop的技術棧(Hadoop、hive、Impala、Hbase、Sqoop)、Spark2.0的技術棧(Spark Core、Spark SQL、Spark Mllib)、分布式檢索(ElasticSearch)、多維分析(Kylin)、關系型數據庫(Mysql)、平臺管理(Zookeeper、Ambari)、調度框架(Oozie、Azkaban) 可掌握的核心能力: 
        通過Sqoop遷移業務數據到HBase;
        基于數據內容確定業務場景并使用SparkMLlib建模 ;
        建立標簽及其規則關聯算法模型 ;
        確定標簽更新周期生成Oozie的定時工作流執行;
        YARN執行作業完成后寫入畫像結果數據到HBase和Solr ;
        通過RestAPI查詢Solr并實時生成用戶畫像結果展示;
        標簽的分類;
        組合標簽的創建和RFM模型使用。

        可解決的現實問題:
        1.用戶畫像是大數據應用的底層核心的服務,例如:推薦、營銷、千人千面、個性化推薦和精準營銷等應用都依賴于用戶畫像服務;
        2.通過對用戶進行畫像,實現不同用戶的個性化服務,提高企業的營收。

        市場價值: 
        使用比較廣泛,在企業里面,基本只要有大數據平臺,就會有基礎服務用戶畫像;
        此項目可以舉一反三,應用到其他的行業里面,如:金融、電信和航空等;
        行業絕對領先的大數據項目實戰。
            第九階段 :   
        項目實戰二
        《千億級實時數據倉庫》
        技術棧
        Flink技術棧(Flink SQL、Flink DataSet、Flink DataStream、Flink CEP)、Spark2.x技術棧(Spark Core、Spark SQL、Structured Streaming)、時序數據存儲分析(Druid)、歷史數據存儲以及資源管理(HDFS、Yarn、MapReduce、Hive、Hbase)、數據采集同步(Flume、Sqoop、canal、DataX、Kafka)、平臺管理(Zookeeper、Cloudera Manager)、調度框架(Oozie、Azkaban) 可掌握的核心能力:
        企業級離線和流式數倉建設的方案和思想;
        企業級數據倉庫建設的難點攻克;
        數倉模型的設計分層設計思想、指標/維度設計思想和模塊設計思想;
        阿里巴巴數倉分層架構(ODS-DWB-DWS-DM-ADS)實戰;
        采用Flink的低延遲,狀態管理等特性進行實時指標的開發,提高指標的計算效率真正做到指標的實時統計;
        利用Druid時序分析數據庫進行數據的存儲以及指標的統計;
        離線數倉hive通過擴展Kylin、HBase等框架,實現對離線數據的即席查詢。

        可解決的現實問題:
        基于Flink和Druid實現實時數倉的解決方案,對于數據法人運營者來說,能夠實時的了解數據的情況,從而做出相應的數據決策,同時也解決了數據量非常巨大隔夜分析、統計的問題;
        解決了企業級海量數據存放的問題,通過數倉分層架構(ODS-DWB-DWS-DM-ADS),實現數據易用性、可用性、穩定性、可擴張性和安全性;
        本項目,通過類似于阿里雙十一大屏顯示的功能,實現了海量數據實時分析和展現。

        市場價值:
        目前企業主要以離線數據倉庫為主,現在一些大型的互聯網公司開始使用Flink+Druid來實現實時數倉的功能,人才缺口比較大;
        培養目前比較流行的技術Flink和Druid;
        增強企業級項目實戰的經驗。
        第十階段:    
        深度學習實戰
        Python基礎和
        常用庫介紹
        Python基本語法、Python常用庫、anaconda工具介紹、Numpy庫功能和使用、Pandas庫功能和使用、Matplotlib&Seaborn庫功能和使用 核心能力培養:
        掌握機器學習算法理論基礎;
        熟悉Python語言基礎及數據科學庫;
        熟悉機器學習應用場景;
        掌握scikit-learn機器學習庫結合Python完成全棧機器學習建模;
        掌握Tensorflow深度學習平臺的使用
        掌握使用Tensorflow實現計算機視覺、自然語言和情感分析問題

        可解決現實問題:
        通過使用Tensorflow解決企業里面深度學習的應用
        解決了深度學習的算法選擇和平臺的選擇

        市場價值:
        能夠勝任機器學習、數據挖掘等相關工作,包括推薦算法工程師、數據挖掘工程師、機器學習工程師,填補人工智能領域人才急劇增長缺口。
        深度學習基礎 MP神經元、感知機模型、激活函數、求導、cost函數、梯度下降算法、輸入層、隱藏層、輸出層、如何設計一個神經網絡結構
        Tensorflow
        基礎和實戰
        Tensorflow簡介、環境安裝、計算圖的簡介、計算圖及張量實戰、變量簡介、tensorflow簡要計算實戰、 tensorflow線性回歸案例實戰、tensorboard基本用法、tensorboard用法詳解、tensorboard實戰線性回歸
        Tensorflow計算機
        視覺實戰
        tensorflow實戰手寫體數據、tensorflow泰坦尼克號實戰1、tensorflow泰坦尼克號實戰2、tensorflow實戰多層感知機理論基礎、tensorflow多層感知機實戰Mnist數據集、CNN網絡結構淺析、CNN網絡結構詳解、CNN概念補充詳解、CNN實戰1、CNN實戰2
        Tensorflow
        自然語言處理
        RNN基礎場景及數據定義、RNN前向傳播詳解、RNN反向傳播詳解、RNN結構分類、語言模型詳解及RNN解決方案、RNN總結回顧及案例實踐、RNN前向逐步算法代碼演示、GRU單元、LSTM原理及結構、LSTM實戰手寫體識別、GRU及其他變種實現手寫體識別
        Tensorflow文本
        情感分析項目
        RNN實戰文本情感分析項目、項目必備基礎知識詳解、RNN及LSTM及Gru簡介、詞嵌入及加載數據集、訓練詞向量模型、定義RNN網絡結構、RNN網絡訓練集模型準確率

        備注:該課程大綱僅供參考,實際課程內容可能在授課過程中發生更新或變化,具體授課內容最終以各班級課表為準。


        大數據中級進修課-課程大綱

        學習對象

        本課程適合于計算機專業,有一定Java基礎、通過入學考核的未就業人士。

        提示:測試題主要考察您是否具備Java基礎,以便我們統一入學基礎,更好地開展教學工作。如果您感覺測試題很難,我們建議您參加我們的Java基礎班學習。

        上課方式

        在線學習

        培訓時間

        隨到隨學 ,詳情可詢咨詢老師   點擊咨詢

        大數據中級進修課-課程大綱
        所處階段 主講內容 技術要點 學習目標
        第十一階段:    
        大數據安全
        (中級班)
        企業級大數據
        平臺安全實戰課程
        企業級大數據平臺安全架構、Kerberos架構原理 、Kerberos認證配置 、Sentry架構和原理 、sentry授權配置 、Kerberos+sentry實戰、HDFS安全控制 、Hive安全控制 、Hbase的安全控制 可掌握的核心能力: 
        掌握企業級常用的大數據應用解決方案;
        掌握大數據平臺的安全架構,不同的安全級別;
        掌握大數據平臺數據流轉和分發的工具,加快企業級數據開發;
        掌握OLAP的應用場景,根據不同的需求選擇OLAP分析技術;
        掌握大數據數據可視化的工具使用;
        掌握目前主流的數據庫TiDB的應用場景和典型案例;
        掌握常用的企業級大數據平臺HDP和CDH的使用和運維;
        掌握企業級數倉和數據湖的建設方案和典型案例。

        可解決的現實問題:
        解決企業使用大數據平臺存在的一些業務難點;
        解決企業級數倉建設的過程和常見的問題、及解決方案;
        增加企業級大數據應用實戰,能夠合理設計大數據平臺的技術架構和數據架構  。

        市場價值:
        實現中級程序員的標準,甚至達到大數據的頂端人才所需的技能要求 ;
        豐富的企業級案例和架構實戰。
        第十二階段:   
        數據流程設計
        (中級班)
        數據流程
        設計工具
        NIFI架構和原理 、NIFI核心功能 、NIFI的Processor介紹和開發、NIFI數據流程設計實戰、Kettle基礎操作 、Kettle的Hadoop操作、Kettle操作Hbase、Kettle操作Hive、Kettle項目案例實戰
        第十三階段 :  
        OLAP分析工具
        (中級班)
        OLAP
        數據分析工具
        Kylin的架構和原理、Kylin的快速入門、Kylin的核心功能和優化、Kylin的案例實戰、Druid的架構和原理、Druid的核心功能、Druid的實戰項目
        第十四階段:    
        企業級大數據平臺
        (中級班)
        HDP和CDH
        平臺安裝
        HDP平臺安裝、HDP平臺的使用、HDP平臺的管理和運維、CDH平臺安裝、CDH平臺的使用、CDH平臺的管理和運維
        第十五階段 :  
        開發和數據可視化
        (中級班)
        Zeppelin和
        Superset
        Zeppelin原理、Zeppelin的使用、JDBC、Hive、SparkSQL、Hbase、sh、Zeppelin案例實戰:數據采集 、數據發現 、數據分析 、數據可視化和協作Superset安裝和使用、Superset連接HDFS、Superset連接Hive、Superset圖標拖拉拽實現、Superset數據可視化實戰
        第十六階段 :  
        TiDB數據庫
        (中級班)
        TiDB數據庫
        實戰
        CAP的原理、分布式存儲原理、TiDB架構和原理、TiDB優化器、TiDB執行引擎、RocksDB基本架構、TiKV架構和原理、TiKV分布式事務、TiKV分布式調度、TiDB+Spark項目實戰
        第十七階段:    
        數據倉庫和數據湖
        (中級班)
        數據倉庫和
        數據湖企業級實戰
        數據倉庫的概念、數據模型概念、、維度模型、雪花模型、數據架構、數據分層介紹、ODS層設計、DW層設計、DWB/S層設計、DM層設計、應用層設計、基于Hadoop大數據平臺實現數據倉庫、企業級數據倉庫案例介紹、企業級數據倉庫設計的規范 、數據湖的功能、數據湖的架構、L區、C區、R區和D區的劃分原則、某大型商業銀行數據湖案例分享
        主講項目 項目描述 技術要點 學習目標
        《千億級實時數據倉庫》
        (互聯網)
        千億級實時數據倉庫項目是基于垂直電商的618狂歡節全品類商品的實時儀表盤,由于當日每秒都會生成百萬級訂單及其支付,對時效性要求高,由于計算指標涉及訂單數、訂單金額相關,具備嚴格的Exactly Once特性。 1.使用Canal采集關系型數據庫結構化的交易數據;
        2.使用Flume采集非結構化的用戶行為數據到Kafka;
        3.使用Kafka存儲埋點系統產生的實時的用戶行為數據;
        4.使用Hive、HBase存儲大規模數據;
        5.基于ODS-DWB-DWS-DM-ADS的數倉分層;
        6.使用Oozie調度Spark定時工作流處理和計算分層數據;
        7.使用Kylin預計算DM層的數據立方體滿足多維查詢;
        8.使用Zeppelin+Impala實現靈活的數據開發功能;
        9.使用Superset實現EDW的可視化;
        10.使用Flink計算實時訪客相關指標;
        11.使用Druid實時聚合訂單和銷售等相關指標;
        12.使用ECharts實現實時Dashboard的可視化
        可掌握的核心能力:
        企業級離線和流式數倉建設的方案和思想;
        企業級數據倉庫建設的難點攻克;
        數倉模型的設計分層設計思想、指標/維度設計思想和模塊設計思想;
        阿里巴巴數倉分層架構(ODS-DWB-DWS-DM-ADS)實戰;
        采用Flink的低延遲,狀態管理等特性進行實時指標的開發,提高指標的計算效率真正做到指標的實時統計;
        利用Druid時序分析數據庫進行數據的存儲以及指標的統計;
        離線數倉hive通過擴展Kylin、HBase等框架,實現對離線數據的即席查詢。

        可解決的現實問題:
        基于Flink和Druid實現實時數倉的解決方案,對于數據法人運營者來說,能夠實時的了解數據的情況,從而做出相應的數據決策,同時也解決了數據量非常巨大隔夜分析、統計的問題;
        解決了企業級海量數據存放的問題,通過數倉分層架構(ODS-DWB-DWS-DM-ADS),實現數據易用性、可用性、穩定性、可擴張性和安全性;
        本項目,通過類似于阿里雙十一大屏顯示的功能,實現了海量數據實時分析和展現。

        市場價值:
        目前企業主要以離線數據倉庫為主,現在一些大型的互聯網公司開始使用Flink+Druid來實現實時數倉的功能,人才缺口比較大;
        培養目前比較流行的技術Flink和Druid;
        增強企業級項目實戰的經驗。
        智慧學成
        (在線教育)
        智慧學成項目是對在線教育平臺業務進行大數據統計分析的系統,對課程、用戶、教育機構三個業務領域進行數據挖掘,采用企業級ETL的規范化研發流程,以及企業級數據倉庫建模思想,對課程、用戶、機構三個主題的不同維度進行數據分析,挖掘數據的價值,為在線教育平臺運營提供參考數據依據。項目采用Hadoop、Spark主流技術棧開發,提供數據倉庫、ETL、離線分析、實時分析等多種解決方案,為企業運營發展保駕護航。 1、離線數據倉庫分層設計解決方案
        2、離線數據建模采用Spark+Hive
        3、智能ETL采用Kettle、NiFi
        4、ETL數據清洗采用SparkCore+SparkSQL;
        5、離線數據分析采用SparkSQL+Hive
        6、智能數據采集完整方案WebJs+SpringBoot+Kafka+Flume+HDFS
        7、實時數據分析采用Spark Streaming+Redis;
        8、大數據即時查詢采用Elasticsearch+HBase;
        9、大數據數據流管理采用Apache NiFi
        10、業務數據報表采用vue.js+EChars+SpringBoot+MySQL
        可掌握的核心能力:
        數據倉庫分層設計應用能力;
        Hive離線數據建模開發能力;
        Kettle、NiFi智能ETL應用及開發能力;
        SparkCore+SparkSQL數據清洗開發能力;
        SparkSQL離線數據分析開發能力;
        數據采集系統設計及應用能力;
        Spark Streaming+Kafka+Redis實時數據分析應用及開發能力;
        Elasticsearch+HBase大數據即時查詢開發能力;
        Apache NiFi大數據數據流管理應用能力;
        EChars+SpringBoot+MySQL業務數據報表開發能力。

        可解決的現實問題:
        基于業務驅動,使用Hadoop、Spark等主流大數據技術構建大數據分析架構,包含數據采集、智能收集、數據清洗、離線分析、實時分析、即時數據查詢、分層多維度數據倉庫、可伸縮存儲架構及安全治理等。在此架構基礎上利用對在線教育業務數據進行分析,包括:課程數據、學生數據、在線學習數據等,最終形成多維度統計圖表、分析報表,為企業管理者提供產品優化依據及企業經營決策依據。本架構可平滑應用于金融、電商等其它業務領域,在此基礎上可快速構建業務分析指標,縮短大數據項目的開發周期。

        市場價值:
        技術領先的大數據分析項目,緊跟市場業務步伐,解決互聯網大數據分析的人才缺口;
        使用主流Hadoop、Spark技術棧,培養市場需要的Spark應用開發人才;
        項目涉及數據倉庫、ETL、離線分析和實時分析解決方案,就業市場前景廣闊。
        黑馬電商推薦系統
        (電商推薦)
        黑馬電商平臺個性化推薦系統項目通過采集用戶購買、加購、瀏覽、收藏、點擊等用戶動態行為數據,結合用戶靜態屬性(基于人口統計學信息)數據。通過混合推薦系統平臺推薦給用戶最可能購買的商品。項目依托于Hadoop大數據平臺,完成了用戶行為數據采集、用戶數據分析、實時查詢、實時展現以及通過構建推薦引擎實現離線和實時推薦,將結果通過Hbase或Redis存儲推薦結果,通過線下構建用戶興趣模型、線上ABTest測試推薦結果的可行性。 1.項目使用技術棧Nginx+Lua+Javascript埋點實現自定義日志采集;
        2.通過Azkaban實現對離線統計和離線推薦服務的調度,設定時間實現對任務的觸發調度執行;
        3.離線數據通過HDFS完成存儲,使用HIveSql完成離線數據統計分析;
        4.實時數據通過;Flume+Kafka+SparkStreaming處理業務數據;
        5.項目通過SparkSql完成業務指標數據統計分析與構建特征庫;
        6.不同召回推薦結果數據加載到ElasticSearch、Hbase和MongoDB等數據存儲平臺;
        7.構建以Scala為技術實現的基于記憶推薦引擎(UserCF與ItemCF)、構建基于ALS的基于模型的協同過濾算法、基于FP-Growth的關聯挖掘算法以及基于內容的推薦完成混合推薦;
        8.應用SparkGraphX的SVD++算法模型實現基于圖計算的推薦方式,利用Neo4j構建用戶和商品的關系圖示;
        9.項目在文本評論方面采用Word2Vec構建詞向量,基于詞向量相似度推薦商品。CTR/CVR點擊率預估模型部分使用GBDT算法結合獨熱編碼得到稀疏特征,在利用邏輯斯特回歸算法進行CTR點擊率預估,融合排序后的結果。
        可掌握的核心能力:
        推薦系統設計能力、推薦系統核心算法應用能力;
        Hive離線指標統計開發能力;
        Azkaban實現對離線統計和離線推薦服務的調度能力;
        Flume+Kafka+SparkStreaming處理業務數據能力;
        SparkCore+SparkSQL數據清洗開發能力;
        MongoDB、HBase進行海量數據的存儲的解決方案;
        Elasticsearch+HBase大數據即時查詢開發能力;
        SparkSql完成業務指標數據統計分析與構建特征庫能力;
        Zeppelin整合SparkSql及PySpark業務交互統計能力;
        UserCF&ItemCF基于記憶協同過濾召回推薦算法能力;
        LFM&ALS基于模型的協同過濾召回推薦算法能力
        Apriori和FP-Growth的關聯挖掘算法能力;
        SparkGraphX的SVD++算法模型實現基于圖計算的推薦能力;
        基于SparkMllib的GBDT+LR推薦結果排序算法模型能力;
        Xgboost4J(Xgboost On Spark)算法應用改進排序模型;
        基于Tensorflow的Wide&Deep與DeepFM排序模型應用能力;
        應用SparkGraphX+Neo4J進行關系挖掘能力。

        可解決的現實問題:
        基于多屏多品類電商業務推薦場景驅動,使用Hadoop、Spark等主流大數據技術構建大數據分析架構,包含數據采集、智能收集、數據清洗、離線分析、實時分析等功能,在此架構基礎上的推薦業務通過主流推薦算法、機器學習和深度學習算法完成智能商品推薦。本架構可平滑應用于金融、電信等其它行業推薦業務領域,在此基礎上可快速構建業務分析指標,縮短大數據和人工智能整合項目的開發周期。

        市場價值:
        技術領先的推薦系統核心項目,緊跟市場業務步伐,解決互聯網大數據分析與建模方面的人才缺口;
        基于主流Hadoop、Spark技術棧,培養市場需要的Spark機器學習與數據挖掘方向應用開發人才;
        項目使用主流機器學習和深度學習算法應用于推薦場景,解決市場上大數據和人工智能綜合應用型人才的需求問題。
        4、項目涉及主流的推薦系統架構設計和推薦算法核心解決方案,就業市場前景廣闊。
        《電信信號強度診斷》
        (電信行業)
        1、本項目基于某公司開發的手機測速軟件采集的數據對用戶的手機網速、上行下行流量,網絡制式、信號強度等信息進行宏觀分析。
        2、本項目總體分為三大模塊,分別為數據導入模塊、數據處理模塊、報表生成模塊、地圖處理和渲染。
        1)數據導入模塊:
        數據加載模塊主要用于在傳統關系型數據庫與大數據平臺之間進行數據傳輸,將mysql數據庫內的同步到大數據平臺中。實時新數據首先進入mysql中。
        除此之外,該平臺數據導入模塊還負責數據原始文件、本地wifi文件的自動導入功能。
        2)數據處理模塊:
        數據處理模塊主要用于對已經加載到大數平臺的數據根據實際業務需求進行更深入的處理、分析、運算、加工。
        3)報表生成模塊:
        報表生成模塊主要用于對已經被大數據平臺處理過的數據進行圖形化轉化、界面化的展示。以便于領導比較簡單的、直觀的了解經處理后的數據所傳遞的信息。
        4)地圖處理和渲染:
        百度和高德地圖的LBS服務使用,地圖網格的切分思想,地圖熱力圖的顯示,街景的實現,大數據基于地圖的安防案例實現
        1.使用Hive實現數據倉庫的功能;
        2.Phoenix on Hbase實現類似SQL的查詢;
        3.Hbase二級索引的創建;
        4.使用Azkaban實現任務的調度;
        5.Canal解析Mysql的日志數據,實現MySql數據的增量抽取;
        5.使用Kafka實現數據的發布和訂閱;
        6.使用SparkStreaming+Kafka實現信號的實時計算;
        7.百度地圖LBS服務的使用;
        8.掌握地圖網格的劃分原則和思路。
        可掌握的核心能力: 
        熟練使用hive外部表;
        熟練使用hive內部表;
        熟練使用Hive  reflect;
        熟練使用Hive自動化腳本;
        熟練使用Phoenix 數據加載;
        熟練使用 Hive內置函數;
        掌握Hive自定義UDF;
        掌握Hive  reflect;
        掌握Phoenix 創建二級索引;
        掌握Phoenix創建危機索引原則、思路;
        掌握Azkaban工作流配置;
        掌握Azkaban工作流調度使用;
        掌握Canal解析Mysql日志;
        掌握kafka生產數據;
        掌握SparkStreaming消費kafka數據的方式;
        掌握SparkStreaming實時分析的代碼實現過程;
        掌握信號強度分析的實現思路;
        掌握網絡質量分析的實現思路;
        掌握熱門APP、手機的計算思路。

        可解決的現實問題:
        將大數據相關技術與地圖整合,結合百度地圖,實現可視化信號強度展示,可以清晰的識別出各家運營商的信號強度;
        結合街景圖、可以計算用戶八個方向的信號強度、熱門APP、熱門系統等;
        了解熱門手機、熱門APP的真實地理位置分布。

        市場價值: 
        可以清晰識別出各個運營商在某一區域的信號強度,為運營商提供才考價值;
        掌握用戶使用APP的習慣;
        掌握APP使用的地理位置分布;
        掌握熱門APP流量的地理位置分布;
        掌握熱門手機的地理位置分布。
        《企業級360°全方位用戶畫像》
        (電商)
        1、標簽是表達人的基本屬性、行為傾向、興趣偏好等某一個維度的數據標識,它是一種相關性很強的關鍵字,可以簡潔的描述和分類人群;
        2、標簽的定義來源于業務目標,基于不同的行業,不同的應用場景,同樣的標簽名稱可能代表了不同的含義,也決定了不同的模型設計和數據處理方式;
        3、標簽標簽是構建用戶畫像的基礎,會產生兩類用戶畫像,即個人用戶畫像和群體畫像。個人畫像,也叫360度用戶視圖,用于用戶精準互動和一對一服務,銷售和運營等操作實務指導為主。群體畫像是群體行為分析,群體行為洞察有利于做趨勢分析、產品規劃、營銷決策等層面的工作。
        1.數據遷移工具Sqoop ;
        2.分布式存儲和計算平臺Hadoop ;
        3.機器學習庫Spark MLlib;
        4.SQL on Hadoop方案Spark SQL ;
        5.準實時計算Spark Streaming;
        6.分布式NoSQL數據庫HBase ;
        7.分布式索引和全文檢索工具Solr Cloud;
        8.工作流調度引擎Oozie。
        可掌握的核心能力: 
        通過Sqoop遷移業務數據到HBase ;
        基于數據內容確定業務場景并使用SparkMLlib建模; 
        建立標簽及其規則關聯算法模型 ;
        確定標簽更新周期生成Oozie的定時工作流執行;
        YARN執行作業完成后寫入畫像結果數據到HBase和Solr ;
        通過RestAPI查詢Solr并實時生成用戶畫像結果展示;
        標簽的分類;
        組合標簽的創建和RFM模型使用;

        可解決的現實問題:
        用戶畫像是大數據應用的底層核心的服務,例如:推薦、營銷、千人千面、個性化推薦和精準營銷等應用都依賴于用戶畫像服務;
        通過對用戶進行畫像,實現不同用戶的個性化服務,提高企業的營收。

        市場價值: 
        使用比較廣泛,在企業里面,基本只要有大數據平臺,就會有基礎服務用戶畫像;
        此項目可以舉一反三,應用到其他的行業里面,如:金融、電信和航空等;
        行業絕對領先的大數據項目實戰。

        備注:該課程大綱僅供參考,實際課程內容可能在授課過程中發生更新或變化,具體授課內容最終以各班級課表為準。


        基礎差? 可免費學基礎班

        申請試讀名額

        基礎過關? 可直接就讀就業班

        基礎測試

        大數據學科項目介紹

        • 企業級360°全方位用戶畫像

          項目簡介:

          1、標簽是表達人的基本屬性、行為傾向、興趣偏好等某一個維度的數據標識,它是一種相關性很強的關鍵字,可以簡潔的描述和分類人群。
          2、標簽的定義來源于業務目標,基于不同的行業,不同的應用場景,同樣的標簽名稱可能代表了不同的含義,也決定了不同的模型設計和數據處理方式。
          3、標簽標簽是構建用戶畫像的基礎,會產生兩類用戶畫像,即個人用戶畫像和群體畫像。個人畫像,也叫360度用戶視圖,用于用戶精準互動和一對一服務,銷售和運營等操作實務指導為主。群體畫像是群體行為分析,群體行為洞察有利于做趨勢分析、產品規劃、營銷決策等層面的工作。

          項目特色:

          1、大型電商真實的用戶畫像項目,真實的業務場景;
          2、自義定SparkSQL DataSource插件;
          3、插件化集成Spark的ML/Mllib建模;
          4、自定義Oozie定時工作流自動構建;
          5、用戶標簽的自動化生成;
          6、支持對人對物的秒級畫像生成;
          7、各種企業級組合標簽設計的思想和方案(如:高富帥、羊毛黨等組合標簽實戰);
          8、RFM(客戶價值模型)模型的應用實戰。

        • 千億級實時數據倉庫

          技術要點:

          1、使用Canal采集關系型數據庫結構化的交易數據;
          2、使用Flume采集非結構化的用戶行為數據到Kafka;
          3、使用Kafka存儲埋點系統產生的實時的用戶行為數據;
          4、使用Hive、HBase存儲大規模數據;
          5、基于ODS-DWB-DWS-DM-ADS的數倉分層;
          6、使用Oozie調度Spark定時工作流處理和計算分層數據;
          7、使用Kylin預計算DM層的數據立方體滿足多維查詢;
          8、使用Zeppelin+Impala實現靈活的數據開發功能;
          9、使用Superset實現EDW的可視化;
          10、使用Flink計算實時訪客相關指標;
          11、使用Druid實時聚合訂單和銷售等相關指標;
          12、使用ECharts實現實時Dashboard的可視化

          項目特色:

          1、企業級離線和流式數倉建設的方案和思想;
          2、企業級數據倉庫建設的難點攻克;
          3、數倉模型的設計分層設計思想、指標/維度設計思想和模塊設計思想;
          4、阿里巴巴數倉分層架構(ODS-DWS-DWB-DM-ADS)實戰;
          5、實時指標計算方面,利用Flink的低延遲,狀態管理等特性進行實時指標的開發,提高指標的計算效率真正做到指標的實時統計;
          6、利用druid時序分析數據庫進行數據的存儲以及指標的統計;
          7、離線部分除了使用傳統數倉技術如hive外,我們加入kylin,hbase等框架,實現了數據查詢的低延遲,可以利用即席查詢對離線數據進行快速高效的查詢分析;
          8、企業級真實的數據倉庫建設全部的核心流程和技術。

        • 黑馬電商推薦系統

          項目簡介:

          黑馬電商平臺個性化推薦系統通過采集用戶購買、加購、瀏覽、收藏、點擊等用戶動態行為數據,結合用戶靜態屬性(基于人口統計學信息)數據。通過混合推薦系統平臺推薦給用戶最可能購買的商品。項目依托于Hadoop大數據平臺,完成了用戶行為數據采集、用戶數據分析、實時查詢、實時展現以及通過構建推薦引擎實現離線和實時推薦,將結果通過Hbase或Redis存儲推薦結果,通過線下構建用戶興趣模型、線上ABTest測試推薦結果的可行性。

          技術棧:

          1、數據采集:ngnix+lua+javascript;
          2、數據存儲:HDFS、HBASE、Redis、MongoDB、Mysql;
          3、數據處理:HiveSql、SparkSql、SparkStreaming;
          4、數據統計計算:Hive、SparkSql;
          5、數據建模:SparkML、SparkMLLib、SparkGraphX、TensorflowOnSpark;
          6、數據展示:Web(Vue.js)、Neo4j;
          7、任務調度:Azkaban;
          8、搜索服務:ElasticSearch。

          項目特色:

          1、使用Spark-ALS算法訓練模型和超參數調優,通過模型的predict方法預測推薦結果,通過Rmse比較推薦結果。
          2、通過Spark-FPGrowth算法訓練模型和超參數調優,獲取購買行為類型的樣本數據,從數據中形成關聯挖掘所需的數據,算法通過不同的置信度和支持度超參數設定,調整算法模型。
          3、項目構建基于Scala基礎的UserCF、ItemCF的基于記憶的推薦引擎,得到推薦結果相關表,即為初始推薦結果。
          4、項目應用SparkGraphX的SVD++算法模型實現基于圖計算的推薦方式,利用neo4j構建用戶和商品的關系圖示。
          5、項目擴展Tensorflow技術對CTR排序中的FM、FFM、DeepFM、Wide And Deep模型提取二階及高階特征完成排序。
          6、推薦結果從MongoDB和ElasticSearch中將離線推薦結果、實時推薦結果、內容推薦結果混合。

        • 電信信號強度診斷

          項目簡介:

          1、本項目基于謀公司開發的手機測速軟件采集的數據對用戶的手機網速、上行下行流量,網絡制式、信號強度等信息進行宏觀分析。
          2、本項目總體分為三大模塊,分別為數據導入模塊、數據處理模塊、報表生成模塊、地圖處理和渲染。
          1)數據導入模塊: 數據加載模塊主要用于在傳統關系型數據庫與大數據平臺之間進行數據傳輸,將mysql數據庫內的同步到大數據平臺中。實時新數據首先進入mysql中。除此之外,該平臺數據導入模塊還負責數據原始文件、本地wifi文件的自動導入功能。
          2)數據處理模塊: 數據處理模塊主要用于對已經加載到大數平臺的數據根據實際業務需求進行更深入的處理、分析、運算、加工。
          3)報表生成模塊: 報表生成模塊主要用于對已經被大數據平臺處理過的數據進行圖形化轉化、界面化的展示。以便于領導比較簡單的、直觀的了解經處理后的數據所傳遞的信息。
          4)地圖處理和渲染: 百度和高德地圖的LBS服務使用,地圖網格的切分思想,地圖熱力圖的顯示,街景的實現,大數據基于地圖的安防案例實現。

          項目特色:

          1、調用高德或者百度的API,實現區域熱點分析;
          2、地圖網格的切分思想和實現;
          3、大數據技術+多維地圖展現(包括地圖、衛星圖、三維圖);
          4、信號強度熱圖使用多方案展現,并與大數據及時方案完美融合;
          5、信號強度矩陣圖(矩陣計算),每個獨立的矩形都要獨立進行計算、一次查詢至少需要計算長*寬次(25*12),并在地圖上渲染,對于查詢的時效性要求極高;
          6、以某一用戶為中心,計算用戶八個方向的信號質量、系統、APP等并以街景圖形式展現。難點在于計算用戶八個方向的數據;
          7、大數據技術和地圖完美的整合。

        教學服務

        • 每日測評

          每晚對學員當天知識的吸收程度、老師授課內容難易程度進行評分,老師會根據學員反饋進行分析,對學員吸收情況調整授課內容、課程節奏,最終讓每位學員都可以跟上班級學習的整體節奏。

        • 技術輔導

          為每個就業班都安排了一名優秀的技術指導老師,不管是白天還是晚自習時間,隨時解答學員問題,進一步鞏固和加強課上知識。

        • 學習系統

          為了能輔助學員掌握所學知識,黑馬程序員自主研發了6大學習系統,包括教學反饋系統、學習難易和吸收分析系統、學習測試系統、在線作業系統、學習任務手冊、學員綜合能力評定分析等。

        • 末位輔導

          末位輔導隊列的學員,將會得到重點關心。技術輔導老師會在學員休息時間,針對學員的疑惑進行知識點梳理、答疑、輔導。以確保知識點掌握上沒有一個學員掉隊,真正落實不拋棄,不放棄任何一個學員。

        • 生活關懷

          從學員學習中的心態調整,到生活中的困難協助,從課上班級氛圍塑造到課下多彩的班級活動,班主任360度暖心鼓勵相伴。

        • 就業輔導

          小到五險一金的解釋、面試禮儀的培訓;大到500強企業面試實訓及如何針對性地制定復習計劃,幫助學員拿到高薪Offer。

        香蕉电影