在北京大数据培训多少钱处理培训哪个好?

您所在的位置:
北京大数据培训机构哪家好
北京大数据培训机构哪家好
发布时间:
编辑:樱桃小丸子
北京大数据培训机构哪家好?随着信息技术的发展催生了互联网,大数据,云计算等相关产业,互联网的迅猛发展全面准确的记录了用户相关数据,引领世界从此进入数据时代,可以说谁能更好地掌握和使用数据,谁就把握住了互联网的未来。
大数据人才缺口已达百万!
来魔据让你成为大数据稀缺人才
职业选择多达几十种
升职加薪so easy
薪资蹭蹭涨,从此爱上同学会
魔据就是大数据,懂企业,更懂你
16年500强大型项目研发,12年IT教学经验
上市企业,16年项目开发 经验,Oracle、华为、 山软件战略合作方,开发超 过100个大型商业项目。
30人大数据课程研发团队, 大数据课程标准制定者! 用研发实力征服高校,第 一批高校大数据专业技术 支撑。
12年IT教学经验 3年大数据教学积淀 累积毕业学员超2万
4大学习目标冲刺大数据项目经理
掌握Java高级语言技术
掌握数据结构与算法&
掌握MYSQL数据库应用及开发&
掌握SHELL脚本编程
精通主流大数据处理核心 技术&
掌握Hadoop、Python、 Storm、Spark、Hive
机器学习算法库应用
实时分析计算框架,SPARK 技术&
分布式爬虫与反爬虫技术&
实时分析项目实战&
机器学习算法项目实战
掌控大数据项目开发设计 思想&
掌握大数据处理技术手段&
解决项目开发中的问题和 技术难点
魔据教育大数据开发高薪就业班课程大纲
一阶段 基础课程(301课时)
课程内容详解
Java基础课程
java编程语言基础(35学时)
主要讲解java环境变量搭建,jvm虚拟机运行原理性能参数调整,java基本数据类型,流程控制,数组应用等。
java面向对象编程(70学时)
主要讲解java类和对象的概念,OOP面向对象编程思想,程序设计,构造方法,以及面向对象三大特性,类与类之间的关系,接口、抽象类final,static等关键字,以及多态,异常。
各种常用API(21学时)
主要讲解String以及StringBuffer等。
java集合框架(28学时)
主要讲解整个集合框架体系内容,ArrayList,LinkedList,HashMap等。
I/O流技术(14学时)
主要讲解I/O流基本知识,流操作的基本步骤,字节流,字符流,文件操作以及文件加密,解密,文件复制,文件拆分合并等相关知识,序列化和反序列化。
java线程以及锁(14学时)
主要讲解介绍java线程的基本操作和相关知识;了解锁和死锁的概念以及效果,如何建立生产消费者模型。
Socket网络编程和分布式基础原理(7学时)
主要讲解介绍java基于网络的一些操作和特性,以及各种协议。
关系型数据库MySql
Mysql数据库(35学时)
主要讲解SQL语句相关方面的知识,数据库的操作的基本流程,以及一些常见的企业开发中涉及到的业务方面的数据设计知识以及一些数据库设计工具的使用;基本SQL操作(增,删,改,查,函数,条件查询,排序,递归查询等操作),表和表之间的关系配置,以及一些常用的企业开发数据库设计技巧,如权限管理等表结构设计,视图,分区,索引。
JDBC(7学时)
主要讲解jdbc相关的知识,jdbc基本操作,预处理命令,批处理,jdbc缓存技术,以及jdbc封装思想和数据库连接池技术的开发和应用。
Web开发课程
Jsp/Servlet(35学时)
主要讲解一些简单的jsp和servlet应用, 保证学生能够使用基本的增删改查。
Linux操作系统
Linux简介(4学时)
主要了解什么是操作系统、什么是Linux;了解Linux之前,Unix的历史;了解GNU计划;Linux的发展以及Linux的各个发行版本。
Linux环境搭建(4学时)
主要讲解Linux安装流程;理解Linux部署;理解Linux基本操作命令。
Linux常用命令(12学时)
主要讲解磁盘操作命令;权限管理命令;文件查找命令;本机帮助命令;压缩解压命令;网络相关命令;系统相关命令;vi命令。
Linux基础(3学时)
主要讲解Linux系统监测相关命令;理解crontable的使用;掌握Linux软件包的使用。
Linux网络管理(2学时)
主要讲解Linux的网络配置;掌握互联网的寻址流程和原理;掌握如何经过Window远程管理Linux服务器;掌握如何构建FTP/SSH服务应用;掌握如何实现不同系统平台之间的文件共享。
Shell脚本(6学时)
主要讲解Shell脚本结构;掌握Shell变量定义;掌握Shell基本语法;掌握Shell调试。
综合应用实操(4学时)
主要知识点串线。
第二阶段 大数据基础课程(105课时)
课程内容详解
Hadoop课程
大数据的概述(7学时)
主要讲解大数据历史;大数据出现的原因;大数据解决的问题;大数据目前的发展状态;大数据未来的;我们生活中各行业的大数据应用;云计算的概念;选择hadoop的原因;hadoop在云计算中的作用;hadoop依赖的所有技术和之前课程的联系。
hadoop集群的搭建(17.5学时)
主要讲解介绍单机版和伪分布式安装,详细介绍每个方式的区别,解决什么问题以及详细的配置,并对每个配置文件做深入讲解。能够查看hadoop进程;理解hadoop启动的整个过程。
掌握hadoop集群的搭建、HA安装(ZK);介绍并带领学生使用hadoop的命令,操作hadoop集群文件的上传、下载、删除等操作;日志错误信息、常见的错误处理方式;zookeeper的介绍与安装。
HDFS基础概念介绍(7学时)
主要讲解块的概念、块的好处、冗余备份、块的切分;元数据概念;NameNode工作原理; DataNode工作原理;Secondary NameNode;客户端含义;HDFS文件操作过程;元数据的持久化;什么是EditsLog和FSImage静像文件;EditsLog和FSImage合并--Checkpoint机制;HDFS命名空间;安全模式;心跳机制;机架感知。
HDFS API案例(7学时)
主要讲解案例包括上传本地文件到HDFS;从HDFS下载文件到本地;创建HDFS文件;创建HDFS目录;重命名HDFS文件;删除HDFS文件;删除HDFS目录;查看某个文件是否存在;数据类型,writeable接口。
YARN资源调度框架介绍(7学时)
主要讲解客户端程序与ResourceManager交互;客户端存贮封装信息;ResourceManager调用NodeManager;NodeManager划分资源池;ResourceManager调用MapReduce程序;执行运算;hadoop伪分布式安装、HA安装,加入YARN的进程,反推理论;运行MR程序,观察YARN在程序运行中的处理过程;hadoop1.0到2.0的变化(新加)。
Mapreduce介绍(7学时)
主要讲解MapReduce产生背景;MapReduce官方解释;MapReduce特点;MapReduc计算流程:inputsplit、mapper、combine、shuffle、sort、reducer;MapReduce容错性;MapReduce推测机制;MapReduce应用场合以及MR的整个流程的图解。
Mapreduce案例(28学时)
主要讲解经典的MR程序,包括(计数器、InputFormat输入格式、OutputFormat输出格式、单词计数程序Combiner优化、去重编程、平均程序、数据排序、全排序、倒排序、二次排序、单表关联、多表关联、join连接);排序算法,归并排序,底层源码分析,分区算法;讲解job提交作业的流程;经过WebUI查看log日志。
(14课时)
Zookeeper介绍和安装(3学时)
主要讲解Zookeeper介绍;Zookeeper下载与安装;Zookeeper配置。
Zookeeper集群搭建(4学时)
主要讲解搭建Zookeeper集群;选举机制及Leader测试;Zookeeper客户端操作。
Zookeeper API客户端开发(7学时)
主要讲解Zookeeper客户端API调用;Zookeeper类、Stat类介绍;创建和删除路径Path;ACL理解;CreateMode:创建模式、VERSION版本;设置数据、获取children、Watch(观察者)。
第三阶段 分布式数据库课程(95课时)
课程内容详解
HBase简介(2学时)
主要讲解HBase概念;掌握HBase旧版本体系结构;掌握HBase工作原理;掌握HBase的组成;掌握HBase的容错性;理解HBase应用场景。
HBase环境搭建(9学时)
主要讲解HBase安装流程理论;理解HBase安装模式理论;掌握HBase安装及验证理论;理解HBase基本应用操作;了解查看HBase表内容的几种方式。
掌握HBase版本选择的依据;理解HBase本地模式安装过程;熟练HBase单机模式安装的相应命令;掌握Eclipse HBase开发环境搭建过程。
理解HBase伪分布式安装流程;掌握HBase分布式安装过程;掌握Zookeeper安装过程;初识HBase常用Shell命令;初识HBase API的调用过程。
HBase开发入门(7学时)
主要讲解HBase Shell常用基本命令;掌握HBase Shell常用表管理命令;掌握HBase Shell常用表操作命令;掌握HBase API常用表数据操作开发过程;掌握HBase API常用表管理操作开发过程;掌握新旧版本HBase API调用的差异。
HBase基础API(6学时)
主要讲解HBase基础API的内容及特点;理解HBase基础API开发流程;掌握HBase新、旧二个版本下Put与Delete;理解原子性操作概述;理解Get方法相关理论知识;掌握常规操作:单行get、Result类、get列表(ListCell、RawCell)、错误列表、获取数据方法;掌握多版本的写法。
HBase高级API(5学时)
主要讲解Scan方法相关理论知识;掌握常规操作:指定行、ResultScanner类、按RowKey范围取、多版本;掌握新、旧二种版本的写法;理解过滤器相关理论知识;掌握常规操作:行、列、列名、值、分页过滤器。
综合应用(6学时)
主要讲解表设计相关理论知识;掌握表中列族的设计; 掌握表中RowKey设计;理解翻页原理。
hive入门(7学时)
主要讲解Hive产生的原因;理解HQL解析成MapReduce原理的工作流程;理解Hive体系结构;理解Hive应用场景;初步理解Hive与传统数据仓库的异同。
掌握Hive启动过程、表内容查看几种方式;掌握基本Hive命令操作知识;初步理解Java经过JDBC调用Hive的过程。
Hive环境搭建(4学时)
主要讲解Hive安装前的准备工作;理解Hive内嵌、独立、远程三种安装模式;熟练掌握Hive远程安装过程。
Hive管理(6学时)
主要讲解HiveQL数据类型及转换机制;理解Hive文本文件数据编码格式;初步了解表存储格式;熟练掌握Hive建表操作方法
熟练Java经过JDBC调用Hive过程;了解Hive的几中服务:Hive Shell、JDBC/ODBC、Thrift服务、Web接口。
HiveQL基本语法(3学时)
主要讲解存储格式;掌握创建表的语法;掌握导入数据、删除表、修改表的操作。
HiveQL查询(10学时)
主要讲解使用正则表达式来指定列;掌握列值计算、算数运算符的使用方法;掌握函数、Limit语句的使用方法;熟练列别名、嵌套Select句式;熟练CASE-When-Then句式;When语句。
熟练Group By语句用法;熟练内连接、左外连接、右外连接、半连接的用法;理解Map连接的用法。
掌握Order By、Sort By、Distribute By、Cluster By用法;掌握Union All语法。
高级应用(7学时)
主要讲解分区的原理和用法;掌握分桶的原理和用法;掌握视图的原理和用法;掌握索引的原理和用法。
Hive函数(3学时)
主要讲解Hive函数应用原因;掌握调用函数的应用过程;掌握标准函数的应用过程;掌握聚合函数的应用过程;掌握表生成函数的应用过程。
Hive自定义函数(4学时)
主要讲解编写UDF的基本语法过程;掌握编写UDAF的基本语法过程。
综合应用(16学时)
主要考核HiveQL基本应用;考核分区、分桶、视图、索引应用;考核函数,尤其是自定义函数的应用。
第四阶段 大数据高级进阶课程(207课时)
课程内容详解
简介及安装(16学时)
主要讲解Python简介、Python开发环境搭建;Python数据类型和运算符;Python条件语句
基础语法(16学时)
主要讲解Python for循环、while循环;break与continue;字符串的使用、元组的定义及使用。
函数与面向对象(16学时)
主要讲解Python中列表、元组、字典;函数的定义及使用;lambda匿名函数及应用;变量的作用域;参数的传递、类的定义、对象创建;面向对象的封装、继承、多态。
模块与IO(16学时)
主要讲解模块概念;模块用法;导入模块;IO模块的使用;日历模块的使用;异常的概念及处理。
正则表达式(16学时)
主要讲解正则表达式概念及应用场景;search和match方法;正则表达式的修饰符;正则表达式的模式;正则表达式的应用。
爬虫之分布式爬虫(21学时)
主要讲解redis简介;安装测试;多机测试;scrapy_redis;简单应用测试;多机协作的redis。
爬虫之反爬虫(14学时)
主要讲解反爬虫介绍;问题的分类;顺从的艺术;反爬虫策略;爬虫编写注意事项。
spark基础(7学时)
主要讲解Spark 概述;Spark 生态系统;与MapReduce比较;体系结构与工作原理;安装部署及测试;spark应用场景。
RDD&(21学时)
主要讲解Spark程序模型;Spark弹性数据集;RDD与共享式内存区别;Spark算子分类及功能;Spark 核心算子介绍:aggregate、aggregateByKey、cartesian。
Spark核心算子:coalesce, repartition,fullOuterJoin
、cogroup [Pair], groupWith [Pair]、combineByKey[Pair] ,count,countByKey [Pair]、countByValue,distinct,filter,filterWith &(deprecated)、flat Map,flatMapValues,flatMapWith,fold,foldByKey。
Spark核心算子:groupBy、groupByKey [Pair]、intersection、join [Pair]、keys [Pair]、values[Pair]、leftOuterJoin [Pair]、map、mapPartitions、mapPartitionsWithIndex、mapValues [Pair]、max、min、reduce、reduceByKey [Pair]、rightOuterJoin、sample、sortBy、sortByKey、sum 、take、top、zip、zipWithIndex;RDD特性、常见操作、缓存策略;RDD Dependency、Stage。
spark工作机制(7学时)
主要讲解Spark应用执行机制;Spark调度与任务分配模块;容错机制及共享变量和累加器;Lineage机制;Checkpoint机制;Shuffle机制;集成开发工具开发spark程序;web监控图讲解。
spark编程实战(7学时)
主要讲解编写wordcount程序;TopK;中位数;倒排索引;Countonce;倾斜连接等程序并经过web监控图进行查看。
spark SQL(7学时)
主要讲解Spark SQL概述;DataFrame及DataSet;SparkSession的使用;编程方式执行Spark SQL查询;sparkSQL 数据源之mysql;sparkSQL 数据源之hive;sparkSQL 数据源之json。
sparkSQL运行原理(7学时)
主要讲解Spark SQL组件、架构;DataFrame、SparkSQL运行原理;SparkSQL电商日常数据分析。
电商数据项目(14学时)
主要讲解python爬虫抓取数据;解析json数据;hive建表,数据填充;SparkSQL日常分析;数据的可视化展现。
SparkStreaming基础(7学时)
主要讲解Spark Streaming运行原理;DStream;DStream 常用函数;容错处理;与flume和kafka的集成。
SparkStreaming案例(百度统计的流式实事监控系统)(14学时)
主要讲解nginx日志文件,flume采集;kafka的应用;SparkStreaming 实时分析;结果写入Mysql数据库。
Spark MLlib(7学时)
主要讲解机器学习基本认识;分类算法、聚类算法;回归算法、决策树和随机森林;K近邻算法;贝叶斯决策论;EM算法。
综合应用(4学时)
主要对重要知识点串线。
实时计算介绍和Flume基础(1.5学时)
主要介绍实时计算与离线计算区别;实时技术应用;实时分析三种框架比较;实时分析技术架构。
Flume安装和相关概念(2学时)
主要讲解Flume安装,event介绍; Flume Agent内部原理; 配置Flume Agent。
source相关配置及测试 (3.5学时)
主要讲解source的生命周期;source的配置;常用的几种source的介绍以及应用;Flume拦截器。
channel相关配置及测试 (1.5学时)
主要讲解channle作用;channle事务性;channle的种类;channle配置;Channel选择器。
sink相关配置及测试(1.5学时)
主要讲解sink作用;sink的生命周期;常用的几个sink介绍;Sink组。
复杂数据流的应用(4学时)
主要讲解多source--单channle(Fan in flow); 单source--多channle(Fan out flow);agent—agent。
Kafka介绍(2学时)
主要讲解数据的传递方式;消息中间件的优势及作用;常用的消息中间件;kafka的相关概念。
Kafka安装(5学时)
主要讲解kafka相关概念:broker、topic、生产者和消费者;kafka集群类型;kafka集群启动步骤。
Kafka生产者和消费者(7学时)
主要讲解kafka分区机制(Partition); kafka的副本数(replication);Kafka生产者API和Kafka消费者API。
flume与kafka整合(7学时)
主要讲解flume与kafka整合:kafka source、Kafka Sink、Kafka Channel。
第五阶段 大数据综合实战项目课程(课时)
项目内容详解
高校学生大数据分析项目(学时)
高校学生大数据分析系统是依托于高校数据管理平台的高校学生行为分析系统。经过对海量学生行为数据的计算和分析,建设高校完整的高校招生、教学、就业、学生学习、生活、心理的完整数据仓库。经过对这些数据的分析,提升学校对学生的管理和服务,教学资源合理分配,招生就业等各方面的精细化服务程度,达到学生和教学管理工作的前瞻性、精准性和持续性要求。
互联网精准营销大数据分析项目(学时)
电信预购分析系统是依托于电信用户上网行为数据进行预购分析的系统。经过对电信用户的海量上网行为数据的匹配与分析,建立用户的精准画像,及购买行为预测。经过这些数据的分析,提升对用户的掌握,合理推荐业务提高电信业务扩展。经过预购分析对外提供精准营销的预测用户,有效提高营销成功率。
精准画像对用户进行全面的分析,主要方面:用户状况,用户分群,用户偏好等。经过分析掌握用户状况对业务超包及时提醒升档,对不同时间段提供闲忙不同业务。经过分群划分相同用户,对不同群组进行差别推荐。经过偏好推荐定制服务(游戏包,阅读包等)。经过更人性化的推荐,进而提升业务发展。
预购分析:对用户购买欲望、购买偏好等进行数据建模分析。经过基础分析及模型算法分析用户预购类别(购房,购车等),预购类型(购房:大户型,小户型,房屋位置等。购车:轿车,SUV,价格区间等。)。分析用户购买欲望是否强烈,是近期购买还是先期了解等。
目标,建立良好的用户画像综合体系,准确描绘用户行为。经过数据分析对内提高公司总体业绩;对外提供优质服务。
选择的人多自然是好机构
以上就是小编简单的介绍,希望对你有所帮助,还有更多关于大数据相关的讯息,欢迎咨询,惊喜多多,收获多多。
咨询老师:金老师
咨询电话:010-
咨询微信:
白天班/晚班/周末班
白天班/晚班/周末班
白天班/晚班/周末班
白天班/晚班/周末班
白天班/晚班/周末班
白天班/晚班/周末班
白天班/晚班/周末班
编辑推荐ditor recommend
数据库工程师在线报名
请选择城市
本周热门点击
考试答疑微信
版权所有 深圳市诺达教育股份有限公司 (C) www.thea.cn All Rights Reserved 粤ICP备号-3283被浏览139,532分享邀请回答297311 条评论分享收藏感谢收起813 条评论分享收藏感谢收起在北京的大数据培训班哪个好_百度知道
在北京的大数据培训班哪个好
我有更好的答案
北京教大数据比较好的机构就是千锋了,从学员的历史就业数据看, 平均都达到了10K以上。
采纳率:33%
为您推荐:
您可能关注的内容
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。大数据专业学什么?学完可以干什么?-大数据培训
400-111-8989
大数据专业学什么?学完可以干什么?
本文主要解读大数据专业学什么,学完可以从事哪些职业!
1、“大数据”专业学什么?
大数据领域三个大的技术方向,这些不同的技术方向,对应企业的哪些招聘岗位?
市场需求旺盛,的主体,我们培训的重点
对应岗位:大数据开发工程师 爬虫工程师 数据分析师 等
数据挖掘、数据分析&机器学习方向
学习起点高、难度大,市面上基本没有培训机构在做,后续有计划加入我们课程体系。
对应岗位:数据科学家、数据挖掘工程师、机器学习工程师等
大数据运维&云计算方向
市场需求中等,更偏向于Linux云计算学科
对应岗位:大数据
精通任何方向之一者,均会 “ 前(钱)”途无量。
三个方向中,大数据开发是基础。以Hadoop开发工程师为例,Hadoop入门月薪已经达到了 8K 以上,工作1年月薪可达到 1.2W
以上,具有2-3年工作经验的hadoop人才年薪可以达到
30万—50万,一般需要大数据处理的公司基本上都是大公司,所以学习大数据专业也是进大公司的捷径。
2、“大数据”专业毕业以后干什么?
事实上,大数据工作者可以施展拳脚的领域非常广泛,从国防部、互联网创业公司到金融机构,到处需要大数据项目来做创新驱动。数据分析或数据处理的岗位报酬也非常丰厚,在硅谷,入门级的数据科学家的收入已经是6位数了(美元)。
目前大数据方向学员就业的岗位主要为大数据开发工程师,负责大数据处理程序的开发。
从就业学员的反馈来看,我们的学员完全可以胜任这样的工作,并且有不少学员在工作中成为了团队中的佼佼者。
这一切就是源于我们的课程符合企业需求,并且不断追求新。
我们的课程来自于企业,无论是知识点、项目、架构还是数据,都是源自于真实企业应用,还原企业应用场景,保证了我们的课程和企业的契合度。
企业负责输出项目,老师负责转换课程,即体现了企业对人才的需求,也保证了课程能够为学员良好的接受。
我们的课程体系随着大数据行业的发展在不停的更新,大数据作为新兴行业在高速的发展,我们时刻在跟踪着这些发展趋势,紧跟潮流,更新课程,使学员能跟上大数据技术发展脉络。
我们的课程不只讲技术,更讲架构、讲原理、讲思想,技术再发展也是万变不离其宗,让学员不只学会技术,更有良好的架构思想,可以说为学员后续的发展做好的扎实的基础。
我们和行业内的巨头有着良好的合作关系,利用达内大平台的优势,我们有了很多的合作企业,例如,
京东、阿里、UCloud、猎聘等。这在我们课程更新、学员推荐就业等方面都起到了良好的作用。
我们保持着和以就业学员的沟通联系,为我们时刻掌握技术方向、企业需求提供了巨大的便利,同时也力所能及的为已就业学员提供更多的服务,为其后续发展提供支持。
3、达内大数据课程,有哪些优势?
文章看到这里,想必同学们已经对大数据专业已经非常看好,甚至准备要参加学习了,这时候达妹不得不给大家强烈推荐下达内的大数据课程了。
达内的大数据课程,有哪些优势?我们为什么要这样设计大数据课程?
课程体系较为完善且在不断更新
课程体系随着市场大数据技术的需求变化不断更新改进。
大数据技术不同于其他学科技术,非常的新,发展也非常迅速,我们紧跟市场需求变化,不断更新改进课程,满足企业不断变化的用人需求。
目前课程已经涵盖 大数据离线数据分析 实时数据分析 内存计算三大部分,并且包含其他主流大数据开发工具,如flume、hive、hbase等等。
后续有计划加入Python、爬虫、数据挖掘分析等相关热点内容。
目前来看,我们的课程体系处于市场领先地位,且在不断升级更新。
课程设计合理
知识体系层层递进,从基础开始逐渐深入。
采用了应用驱动、项目驱动的授课方式,授课方式更先进。
深入浅出授课,使学员更易于学习掌握。
应用驱动课程
应用永远是技术的目标,我们的课程侧重应用,课程中用项目贯穿知识点,学知识同时在做项目,在应用中掌握原理,使学员不再眼高手低。
重底层、讲原理
在测中应用的同时,不放弃理论深度,以理论深度带动应用,提高学生视野,让学员从架构层面考虑问题,不再只是一个代码编写者,更是一个架构设计者。使其知其然更知其所以然。
真实项目,贴近企业
授课项目来自真实企业,经由讲师课程转化,留其精髓去其繁复,让学员贴近企业真实业务场景,不再害怕就业。
重点:送你+Java免费课程,全程大咖级讲师亲授,为你解析行业发展趋势,就业前景,帮你了解大数据技术,轻松入门,更快一步成为技术大牛,现在咨询就可获得,名额有限先到先得
计算机编程语言有很多,目前用的多一点的就是Java,C++,Python等等。目前大多数学习大数据的人都是选择学习Java,那Java到底好在哪呢?为什么学大数据之前要先学Java呢?我们今天就来分析一下。
Copyright (C)
Tedu.cn All Rights Reserved 京ICP备号-56 版权所有
选择城市和中心
达内北京亦庄大学生实训基地
达内北京网络营销中心
达内北京会计中心北京大数据培训机构哪家好
市场价:¥详询
班制:周末班
上课(咨询)地址:
北京海淀区宝盛北里西区28号
大数据开发周末高端提升班
1、具备一定工作经验,想要谋求多元发展;
2、能够承受高压,希望以zui短时间学习大数据开发开发核心内容,并使之成为职场加分项;
3、想要学习大数据完成弯道提升,打破现处职业瓶颈;
4、千锋所有老学员,为自己追加竞争资本;
培训时间:10天
上课时间:周末 (AM 9:00-12:00,PM 14:00-17:00)
上课要求:自带电脑
大数据开发高端提升班学费10800元,千锋老学员可享受半价优惠!(咨询详情)
报名后由专业职业规划师面试入学(咨询详情)
学员入学前可下载观看千锋教育录制的大数据开发相关教学视频,提前预习,学习效果更佳!(咨询下载视频教程地址)
第1阶段、Linux&&Hadoop生态体系
一、Linux大纲
1) 第四层负载均衡
2) 了解机架服务器,采用真实机架服务器部署linux
3) Linux的常用命令:常用命令的介绍、常用命令的使用和练习;
4) Linux系统进程管理基本原理及相关管理工具如ps、pkill、top、htop等的使用;
5) Linux启动流程,运行级别详解,chkconfig详解;
6) VI、VIM编辑器:VI、VIM编辑器的介绍、VI、VIM扥使用和常用快捷键;
7) Linux用户和组账户管理:用户的管理、组管理;
8) Linux磁盘管理,lvm逻辑卷,nfs详解;
9) Linux系统文件权限管理:文件权限介绍、文件权限的操作;
10) Linux的RPM软件包管理:RPM包的介绍、RPM安装、卸载等操作;
11) yum命令,yum源搭建;
12) Linux网络:Linux网络的介绍、Linux网络的配置和维护;
13) Shell编程:Shell的介绍、Shell脚本的编写;
14) Linux上常见软件的安装:安装JDK、安装Tomcat、安装mysql,web项目部署;
这章是基础课程,帮大家进入大数据领域打好Linux基础,以便更好地学习Hadoop,hbase,NoSQL,Spark,Storm,docker,kvm,openstack等众多课程。因为企业中无一例外的是使用Linux来搭建或部署项目。
二、大型网站高并发处理
1) 第四层负载均衡
a) Lvs负载均衡
i. 负载算法,NAT模式,直接路由模式(DR),隧道模式(TUN)
b) F5负载均衡器介绍
2) 第七层负载均衡
3) Tomcat、jvm优化提高并发量
4) 缓存优化
a) Java缓存框架
i. Oscache,ehcache
b) 缓存数据库
i. Redis,Memcached
5) Lvs nginx tomcat redis|memcache构建二层负载均衡千万并发处理
6) Haproxy
7) Fastdfs小文件独立存储管理
8) Redis缓存系统
a) Redis基本使用
b) Redis sentinel高可用
c) Redis好友推荐算法
本章的学习大家将会了解大数据的源头,数据从何而来,继而更好的了解大数据。并且经过学习何果处理大型网站高并发问题反向更深入的学习了Linux,同时站在了更高的角度去触探了架构。
三、Lucene课程
1) Lucene介绍
2) Lucene 倒排索引原理
3) 建索引 IndexWriter
4) 搜索 IndexSearcher
6) Sort和 过滤 (filter)
7) 索引优化和高亮
在大数据里面文本数据的搜索是很重要的一块,特别是里面的分词技术,是后面机器学习里面文本挖掘的基石,我们需要深入学习java领域里面的搜索核心技术lucene,同时也可以了解到百度 google这样的搜索系统是怎么架构实现的。
四、Solr课程
1) 什么是solr
2) 为什么工程中要使用solr
3) Solr的原理
4) 如何在tomcat中运行solr
5) 如何利用solr进行索引与搜索
6) solr的各种查询
7) solr的Filter
8) solr的排序
9) solr的高亮
10) solr的某个域统计
11) solr的范围统计
12) solrcloud集群搭建
接着前面lucene技术搜索,如果把lucene技术比如为发动机,那solr就是一两成型的汽车了。学习完solr可以帮助你在企业里面**的架构搜索系统。首先Solr是基于Lucene做的,Lucene是一套信息检索工具包,但并不包含搜索引擎系统,它包含了索引结构、读写索引工具、相关性工具、排序等功能,因此在使用Lucene时你仍需要关注搜索引擎系统,例如数据获取、解析、分词等方面的东西。而Solr的目标是打造一款企业级的搜索引擎系统,因此它更接近于我们认识到的搜索引擎系统,它是一个搜索引擎服务,经过各种API可以让你的应用使用搜索服务,而不需要将搜索逻辑耦合在应用中。而且Solr可以根据配置文件定义数据解析的方式,更像是一个搜索框架,它也支持主从、热换库等操作。还添加了飘红、facet等搜索引擎常见功能的支持。
五、Hadoop离线计算大纲
1) Hadoop生态环境介绍
2) Hadoop云计算中的位置和关系
3) 国内外Hadoop应用案例介绍
4) Hadoop 概念、版本、历史
5) Hadoop 核心组成介绍及hdfs、mapreduce 体系结构
6) Hadoop 的集群结构
7) Hadoop 伪分布的详细安装步骤
8) 经过命令行和浏览器观察hadoop
1) HDFS底层工作原理
2) HDFS datanode,namenode详解
3) Hdfs shell
4) Hdfs java api
1) Mapreduce四个阶段介绍
2) Writable
3) InputSplit和OutputSplit
4) Maptask
5) Shuffle:Sort,Partitioner,Group,Combiner
6) Reducer
四、Mapreducer案例
1) 二次排序
2) 倒排序索引
3) zui优路径
4) 电信数据挖掘之-----移动轨迹预测分析(中国棱镜计划)
5) 社交好友推荐算法
6) 互联网精准广告推送 算法
7) 阿里巴巴天池大数据竞赛 《天猫推荐算法》案例
8) Mapreduce实战pagerank算法
1) Hadoop2.x集群结构体系介绍
2) Hadoop2.x集群搭建
3) NameNode的高可用性(HA)
4) HDFS Federation
5) ResourceManager 的高可用性(HA)
6) Hadoop集群常见问题和解决方法
7) Hadoop集群管理
一、初识hadoop听过大数据,必听过hadoop,此部分带领大家了解hadoop的用途,在大数据中的用途,以及**搭建一个hadoop的实验环境,在本过程中不仅将用到前面的Linux知识,而且会对hadoop的架构有深入的理解,并为你以后架构大数据项目打下坚实基础。
二、HDFS体系结构和shell以及java操作详细剖析HDFS,从知晓原理到开发网盘的项目让大家打好学习大数据的基础,大数据之于分布式,分布式学习从学习分布式文件系统(HDFS)开始。
三、 详细讲解MapreduceMapreduce可以说是任何一家大数据公司都会用到的计算框架,也是每个大数据工程师应该熟练掌握的。
五、 Hadoop2.x集群搭建前面带领大家开发了大量的MapReduce程序
六、分布式数据库Hbase
1) HBase与RDBMS的对比
2) 数据模型
3) 系统架构
4) HBase上的MapReduce
5) 表的设计
6) 集群的搭建过程讲解
7) 集群的监控
8) 集群的管理
9) HBase Shell以及演示
10) Hbase 树形表设计
11) Hbase 一对多 和 多对多 表设计
12) Hbase 微博 案例
13) Hbase 订单案例
14) Hbase表级优化
15) Hbase 写数据优化
16) Hbase 读数据优化
大数据中使用Hbase的案例多的举不胜举,也可凸显大家学习的必要性。即使工作多年的大数据工程师Hbase的优化也是需要好好学习的重点。
七、数据仓库Hive
1) 数据仓库基础知识
2) Hive定义
3) Hive体系结构简介
4) Hive集群
5) 客户端简介
6) HiveQL定义
7) HiveQL与SQL的比较
8) 数据类型
9) 外部表和分区表
10) ddl与CLI客户端演示
11) dml与CLI客户端演示
12) select与CLI客户端演示
13) Operators 和 functions与CLI客户端演示
14) Hive server2 与jdbc
15) 用户自定义函数(UDF 和 UDAF)的开发与演示
16) Hive 优化
Hive是使用sql进行计算的hadoop框架,工作中常用到的部分,也是面试的重点,此部分大家将从方方面面来学习Hive的应用,任何细节都将给大家涉及到。
八、数据迁移工具Sqoop
1) 介绍 和 配置Sqoop
2) Sqoop shell使用
3) Sqoop-import
a) DBMS-hdfs
b) DBMS-hive
c) DBMS-hbase
4) Sqoop-export
sqoop适用于关系型数据库和HDFS分布式数据系统之间进行数据转换,在企业中,是构建数据仓库的一大工具。
九、Flume分布式日志框架
1) flume简介-基础知识
2) flume安装与测试
3) flume部署方式
4) flume source相关配置及测试
5) flume sink相关配置及测试
6) flume selector 相关配置与案例分析
7) flume Sink Processors相关配置和案例分析
8) flume Interceptors相关配置和案例分析
9) flume AVRO Client开发
10) flume 和kafka 的整合
Flume是Cloudera提供的日志收集系统,目前是Apache下的一个孵化项目,Flume支持在日志系统中定制各类数据发送方,用于收集数据。大家学习完此节后不但可以掌握Flume的使用,而且可以进行对于Flume的开发。
十、Zookeeper开发
1) Zookeeper java api开发
2) Zookeeper rmi高可用分布式集群开发
3) Zookeeper redis高可用监控实现
4) Netty 异步io通信框架
5) Zookeeper实现netty分布式架构的高可用
Zookeeper在分布式集群(Hadoop生态圈)中的地位越来越突出,对分布式应用的开发也提供了极大便利,这也是这里我们带领大家深初入学习 Zookeeper的原因。本课程主要内容包括Zookeeper深入、客户端开发(Java编程,案例开发)、日常运维、Web界面监控。大家这里学好Zookeeper,对后面学习其他技术至关重要。
十一、某一线公司的真实项目
项目技术架构体系:
a) Web项目和云计算项目的整合
b) Flume经过avro实时收集web项目中的日志
c) 数据的ETL
d) Hive 批量 sql执行
e) Hive 自定义函数
f) Hive和hbase整合。
g) Hbase 数据支持 sql查询分析
h) Mapreduce数据挖掘
i) Hbase dao处理
j) Sqoop 在项目中的使用。
k) Mapreduce 定时调用和监控
某大型的一线网站的日志分析和订单管理在实战中学习,技术点非常多,怎么样实际运用这些点是我们在自学过程中体验不到的。Cookie日志分析包括:pv、uv,跳出率,二跳率、广告转化率、搜索引擎优化等,订单模块有:产品推荐,商家排名,历史订单查询,订单报表统计等。
第二阶段、云计算体系
一、Docker 课程
1) 基本介绍
2) vm docker 对比
3) docker基本架构介绍
4) unfs cgroup namespace
5) 进程虚拟化 轻量级虚拟化
6) docker 安装
7) docker 镜像制作
8) docker 常用命令
9) docker 镜像迁移
10) docker pipework【i.openvswitch】
11) docker weave
Docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。容器是完全使用沙箱机制,相互之间不会有任何接口(类似 iPhone 的 app)。几乎没有性能开销,可以很容易地在机器和数据中心中运行。重要的是,他们不依赖于任何语言、框架包括系统。
二、虚拟化KVM
1) 虚拟化介绍,虚拟化适用场景等等
2) Qemu Libvirt & KVM
3) 安装KVM, Qemu, Libvirt
4) QEMU-KVM: 安装第1个能上网的虚拟机
5) Kvm虚拟机 nat,网桥基本原理
6) kvm虚拟机克隆
7) kvm虚拟机vnc配置
8) kvm虚拟机扩展磁盘空间
9) Kvm快照
10) Kvm 迁移
11) Java,python,c语言编程控制kvm
12) 构建自己的虚拟云平台
云计算平台,比如openstack,cloudstack 底层采用的技术都是虚拟化方案,现在以kvm市场占有率高,我们要深入的去学习这些原生的虚拟化,才能深入了解和架构openstack这样的云计算的平台,也才更有能力去开发自己的云计算平台
三、云平台OpenStack
1) openstack介绍和模块基本原理分析
2) openstack多节点安装部署【a.采用centos6.x系统】
3) Keystone基本原理
7) Neutron
8) Openstack api 二次开发
在实战中学习,课程绝不是纸上谈兵,经过搭建和调试一个真实的openstack平台,深入浅出, 详细讲解openstack的各个组成模块:keystone, glance, nova, cinder, neutron, horizen。课程中遇到的各种实际问题,不仅演示了如何解决,更是要教会大家学会去找到解决问题的方法。难点问题全面讲解。在云计算的各种技术当中,网络部分是zui难,也是zui复杂多样的。课程中针对虚拟网络进行了详细的讲解,包括基本原理,以及实际环境搭建,问题的跟踪和解决。讲师拥有丰富的移动集团工作经验,负责云平台的各方面工作,讲课内容完全贴近企业需求,绝不纸上谈兵。
第三阶段、大数据计算框架体系
一、Python课程
1) 介绍Python以及特点
2) Python的安装
3) Python基本操作(注释、逻辑、字符串使用等)
4) Python数据结构(元组、列表、字典)
5) 使用Python进行批量重命名小例子
6) Python常见内建函数
7) 更多Python函数及使用常见技巧
9) Python函数的参数讲解
10) Python模块的导入
11) Python中的类与继承
12) 网络爬虫案例
13) 数据库连接,以及pip安装模块
14) Mongodb基础入门
15) 讲解如何连接mongodb
16) Python的机器学习案例
Python语言的部分大家在学习后可以完全掌握Python的精髓,并经过这部分的学习给大家打好一个基础,在其他计算框架中多语言的使用上都会涉及到Python这门流行的语言。同时课程里会经过机器学习的案例让大家学习Python的同时去更好的理解机器学习
二、Scala课程
1) scala解释器、变量、常用数据类型等
2) scala的条件表达式、输入输出、循环等控制结构
3) scala的函数、默认参数、变长参数等
4) scala的数组、变长数组、多维数组等
5) scala的映射、元组等操作
6) scala的类,包括bean属性、辅助构造器、主构造器等
7) scala的对象、单例对象、伴生对象、扩展类、apply方法等
8) scala的包、引入、继承等概念
9) scala的特质
10) scala的操作符
11) scala的高阶函数
12) scala的集合
13) scala数据库连接
Scala课程 在此部分内,将更注重scala的各种语言规则与简单直接的应用,而不在于其是如何具体实现,经过学习本课程能具备初步的Scala语言实际编程能力。本部分课程也可以视为大家下面学习Spark课程的铺垫,供大家扫盲熟悉Scala,提前进行热身运动。
三、Spark大数据处理
1) 1) Spark介绍
2) Spark应用场景
3) Spark和Hadoop MR、Storm的比较和优势
5) Transformation
7) Spark计算PageRank
8) Lineage
9) Spark模型简介
10) Spark缓存策略和容错处理
11) 宽依赖与窄依赖
12) Spark配置讲解
13) Spark集群搭建
14) 集群搭建常见问题解决
15) Spark原理核心组件和常用RDD
16) 数据本地性
17) 任务调度
18) DAGScheduler
19) TaskScheduler
20) Spark源码解读
21) 性能调优
22) Spark和Hadoop2.x整合:Spark on Yarn原理
Spark大数据处理 本部分内容全面涵盖了Spark生态系统的概述及其编程模型,深入内核的研究,Spark on Yarn,Spark Streaming流式计算原理与实践,Spark SQL,Spark的多语言编程以及SparkR的原理和运行。不仅面向项目开发人员,甚至对于研究Spark的学员,此部分都是非常有学习指引意义的课程。
四、Spark—Streaming大数据处理
1) Spark Streaming:数据源和DStream
2) 无状态transformation与有状态transformation
3) Streaming Window的操作
4) sparksql 编程实战
5) spark的多语言操作
6) spark新版本的新特性
Spark—Streaming是流式计算里zui有特点的框架,便于机器学习上模型的使用,当下公司Spark默认就是Streaming,可见它的重要性,对于微批处理的流式计算,框架简介,Dstream的模型使用
五、Spark—Mlib机器学习
a) Spark MLlib组件介绍
b) 基本数据类型
2) 回归算法
c) 广义线性模型
d) 逻辑回归
3) 分类算法
e) 朴素贝叶斯
g) 随机森林
4) 第四章 推荐系统
5) 第五章 聚类
6) spark新版本的新特性
i) Sparse kmeans
k) Kmeans II
l) Streaming kmeans
m) Gaussian Mixture Model
前面课程大家已经掌握第1代机器学习工具R,而后又学习了第二代机器学习工具Mahout,这里大家将会学习第三代机器学习工具MLlib,大家不仅将会了解MLlib的组件及其调用,而且会经过Spark的项目深入了解MLlib的现实使用。经过此部分大家也可以看出课程不仅着眼于现在,更是着眼于大家的未来在行业中的发展。
六、Spark—GraphX 图计算
e) PageRank
这节课程是 Apache的开源的图计算框架Giraph,以及卡内基梅隆大学主导的GraphLab等,当然还有本文的主角——基于Spark的GraphX
七、基于Spark的推荐系统(某一线公司真实的项目)
项目技术架构体系:
a) 实时流处理 Kafka,Spark Streaming
b) 分布式运算 Hadoop,Spark
c) 数据库 Hbase,Redis
d) 机器学习 Spark Mllib
e) 前台web展示数据 Struts2,echart
f) 分布式平台 Hadoop,Spark
g) 数据清洗 Hive
h) 数据分析 R RStudio
i) 推荐服务 Dubbox
j) 规则过滤 Drools
k) 机器学习 MLlib
个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类**增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务
八、Kafka课程
1) kafka是什么
2) kafka体系结构
3) kafka配置详解
4) kafka的安装
5) kafka的存储策略
6) kafka分区特点
7) kafka的发布与订阅
8) zookeeper协调管理
9) java编程操作kafka
10) scala编程操作kafka
11) flume 和kafka 的整合
12) Kafka 和storm 的整合
Kafka是当下流行的队列,可以说是从数据采集到大数据计算承上启下的重要环节,大家在此部分将会详细学习它的架构,kafka在大家大数据的项目中几乎都会涉及到。
九、Strom实时数据处理
项目技术架构体系:
1) Storm的基本概念
2) Storm的应用场景
3) Storm和Hadoop的对比
4) Storm集群的安装的linux环境准备
5) zookeeper集群搭建
6) Storm集群搭建
7) Storm配置文件配置项讲解
8) 集群搭建常见问题解决
9) Storm常用组件和编程API:Topology、 Spout、Bolt
10) Storm分组策略(stream groupings)
11) 使用Strom开发一个WordCount例子
12) Storm程序本地模式debug、Storm程序远程debug
13) Storm事物处理
14) Storm消息可靠性及容错原理
15) Storm结合消息队列Kafka:消息队列基本概念(Producer、Consumer、Topic、Broker等)、消息队列Kafka使用场景、Storm结合Kafka编程API
16) Storm Trident概念
17) Trident state 原理
18) Trident开发实例
19) Storm DRPC(分布式远程调用)介绍
20) Storm DRPC实战讲解
21) Storm和Hadoop 2.x的整合:Storm on Yarn Storm开发实战: Kafka Storm Hbase redis项目实战,以及多个案例
本部分学习过后,大家将全面掌握Storm内部机制和原理,经过大量项目实战,让大家拥有完整项目开发思路和架构设计,掌握从数据采集到实时计算到数据存储再到前台展示,所有工作一个人搞定!譬如可以一个人搞定淘宝双11大屏幕项目!不光从项目的开发的层次去实现,并可以从架构的层次站在架构师的角度去完成一个项目。
十、Strom项目实战
项目技术架构体系:Storm hbase kafka flume echarts
a) flume实时采集日志
b) kafka缓冲队列
c) storm实时处理
d) Hbase dao存储处理结果
e) 前端Web实时展示报表
中国移动基站**平台一个市级移动公司,每天的产生海量话务数据(一线城市更高),经过大数实时分析,监控每个基站的掉话率,基站通话总数,基站掉话总数,基站告警,3g/4g上网流量实时监控。对以上维度进行实时分析以达到对基站工作情况的监控。
机器学习&&深度学习
一、R语言&&机器学习
1) R语言介绍,基本函数,数据类型
2) 线性回归
3) 朴素贝叶斯聚类
4) 决策树分类
5) k均值聚类
a) 离群点检测
6) 关联规则探索
7) 神经网络
R本身是一款十分优秀的数据分析和数据可视化软件,同时作为第1代机器学习的工具,其中包括大量用于机器学习的添加包。此部分带领大家学习R语言更是带领大家进入机器学习的领域,机器学习算法为主线的同时,经过案例学习将会让大家对内容脉络掌握的更加清晰。
二、Mahout机器学习
1) 介绍为什么使用它,它的前景
a) 简单介绍Mahout
b) 简单介绍机器学习
c) 实例演示Mahout单机推荐程序
2) 配置安装(hadoop2.x版本的)编译安装步骤说明
a) 命令行中测试运行协同过滤概念
a) 讲解基于用户的协同过滤
b) 讲解基于物品的协同过滤
a) 分类概念
b) 分类的应用及Mahout分类优势
c) 分类和聚类、推荐的区别
d) 分类工作原理
e) 分类中概念术语
f) 分类项目工作流
g) 如何定义预测变量
h) 线性分类器的介绍,及贝叶斯分类器
i) 决策树分类器的介绍,及随机森林分类器
j) 如何使用贝叶斯分类器和随机森林分类器的代码展示
a) 聚类概念
b) 聚类步骤流程
c) 聚类中的距离测度
d) 讲解K-means聚类
e) K-means聚类算法展示
f) 聚类其他算法
g) 介绍TF-IDF
i) 微博聚类案例
Mahout提供一些可扩展的机器学习领域经典算法的实现,很多公司会使用Mahout方便快捷地创建智能应用程序。Mahout包含许多实现,包括聚类、分类、推荐过滤、频繁子项挖掘。Mahout经过使用 Apache Hadoop,可以有效地扩展到云中。被业界奉为第二代机器学习工具。此部分过后大家不仅会学习到mahout的组件而且会有项目让大家真正把它应用到工作中。
三、项目实战
项目技术架构体系:
a) 分布式平台 Hadoop,MapReduce
b) 数据采集 Flume
c) 数据清洗 ETL
d) 数据库 Hbase,Redis
e) 机器学习 Mahout
微博营销数据挖掘项目使用数据来自微博平台,项目目标经过机器学习所学知识挖掘目标客户群体,找到代言人进行微博营销广告投放。
千锋教育隶属于北京千锋互联科技有限公司,一直秉承“用良心做教育”的理念,致力于打造IT教育全产业链人才服务平台,公司总部位于北京,目前已在深圳、上海、郑州、广州、大连、武汉、成都、西安、杭州、青岛、重庆、长沙、哈尔滨成立了分公司,全国14个城市年培养优质人才20000余人,同期在校学员5000余人,合作院校超500所,合作企业超10000家,每年有数十万名学员受益于千锋教育组织的技术研讨会、技术培训课、网络公开课及免费教学视频。
千锋的6年多历程精彩纷呈,获得荣誉包括:中关村移动互联网产业联盟副理事长单位、中国软件协会教育培训委员会认证一级培训机构、中关村国际孵化软件协会授权中关村移动互联网学院、教育部教育管理信息中心指定移动互联网实训基地等。
千锋教育11大学科包含HTML5培训、UI交互设计培训、PHP培训、Java+云数据培训、大数据开发培训、VR/AR/Unity游戏开发培训、Python人工智能培训、Linux云计算培训、全栈软件测试培训、Android培训、iOS培训,采用100%全程面授高品质、高成本培养模式,教学大纲紧跟企业需求,拥有全国一体化就业保障服务,成为学员信赖的IT职业教育品牌。
北京数据库工程师培训最新开班
北京数据库工程师培训最新资讯
北京数据库工程师培训最新问答

我要回帖

更多关于 大数据培训学校 的文章

 

随机推荐