干货走起,闲话不多说,以下就是小编整理的大数据学习思路
第一阶段:linux系统
本阶段为大数据学习入门基础课程,帮大家进入大数据领取打好Linux基础,以便更好的学习Hadoop、habse、NoSQL、saprk、storm等众多技术要点。
另:目前企业中无疑例外是使用Linux来搭建或部署项目的
第二阶段:大型网站高并发处理
本阶段的学习是为了让大家能够了解大数据的源头,数据从而而来,继而更好的了解大数据。通过学习处理大型网站高并发问题反向的更加深入的学习Linux,同事站在了更高的角度去触探架构
第三阶段:Hadoop学习
1、Hadoop分布式文件系统:HDFS
详细解剖HDFS,了解其工作原理,打好学习大数据的基础
2、Hadoop分布式计算框架:MapReduce
MapReduce可以说是任何一家大数据公司都会用到的计算框架,也是每个大数据工程师应该熟练掌握的
3、Hadoop离线体系:Hive
hive是使用SQL尽心计算的Hadoop框架,工作中经常会使用,也是面授的重点
4、Hadoop离线计算体系:HBASE
HBASE的重要性不言而喻,即便是工作多年的大数据工程师也是需要去重点学习HBASE性能优化的
第四阶段:zookeeper开发
zookeeper在分布式集群中的地位越来越突出,对分布式应用的开发也提供了极大的便利,学习zookeeper的时候,我们主要学习zookeeper的深入,客户端开发、日常运维、web界面监控等等。学好此部分的内容对后面技术的学习也是至关重要的。
第五阶段:elasticsearch分布式搜索
第六阶段:CDH集群管理
第七阶段:storm实时数据处理
本阶段覆盖storm内部机制和原理,掌握从数据采集到实时极端到数据存储再到前台展示,一人讲所有的工作全部完成,知识覆盖面广
第八阶段:Redis缓存数据库
对Redis做个全部的学习,包括其特点、散列集合类型、字符串类型等等,最后到优化,做个详细的学习
第九阶段:spark核心部分
本阶段内容覆盖了spark生态系统的概述及其编程模型,深入内核的研究,Spark on Yarn,Spark Streaming流式计算原理与实践,Spark SQL,Spark的多语言编程以及SparkR的原理和运行。
想要在大数据这个领域汲取养分,让自己壮大成长。分享方向,行动以前先分享下一个大数据交流分享资源群943791324,欢迎想学习,想转行的,进阶中你加入学习。
如何学习大数据?
知道了为什么要学习大数据,那么该如何学习大数据呢?该学习哪些东西呢?从哪里开始呢?
1. 分布式存储
首先是解决海量数据的存储,大家学习大数据第一步就是要学习 HDFS(Hadoop Distributed File System),HDFS 是在 Linux 之上的一套分布式的文件系统。
大家首先要学会熟练安装 hadoop(因为 hadoop 中包含了 hdfs)(大家也不要对安装这个词过于畏惧,其实就是解压个 jar 包,配置个环境变量,非常轻量的,在电脑上安装个虚拟机,反复练就完了,弄坏了,重新新建个虚拟机就行了),然后要熟练掌握 HDFS 的基本命令(其实,你使用 hdfs 的命令和使用 linux 的命令差不多,比方说,我们在 linux 中创建目录的命令是:mkdir t