1.2 Hadoop概述
一提大数据,必提Hadoop,Hadoop已经成为大数据技术的标准。Hadoop不是一套孤立的系统,具有很多生态子项目的支撑。Hadoop 3.X也相较于之前的Hadoop 1.X和2.X有了较大的技术升级。本节对Hadoop技术进行简单介绍,后面章节将对具体内容进行深入分析。
1.2.1 Hadoop简介
Hadoop是一个由Apache软件基金会开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力进行高速运算和存储。
Hadoop实现了一个分布式文件系统(Hadoop Distributed File System,HDFS)。HDFS具有高容错性的特点,并设计它用来部署在价格低廉的硬件上,而且它提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序。Hadoop框架的核心设计就是HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。
1. 项目起源
Hadoop被Apache软件基金会于2005年作为Lucene子项目Nutch的一部分正式引入。它受到谷歌实验室开发的MapReduce和Google File System(GFS)的启发。2006年3月,MapReduce和Nutch Distributed File System(NDFS)分别被纳入称为Hadoop的项目中。
2. 发展历程
Hadoop原本来自于谷歌一款名为MapReduce的编程模型包。谷歌的MapReduce框架可以把一个应用程序分解为许多并行计算指令,跨大量的计算节点运行非常巨大的数据集。使用该框架的一个典型例子就是在网络数据上运行的搜索算法。Hadoop最初只与网页索引有关,但后来迅速发展成为分析大数据的领先平台。
3. 名字起源
Hadoop这个名字不是一个缩写,而是一个虚构的名字。该项目的创建者Doug Cutting这样解释Hadoop的命名:“这个名字是我孩子给一个棕黄色的大象玩具起的名字。我的命名标准就是简短、容易发音和拼写,没有太多的意义,并且不会被用于别处。小孩子恰恰是这方面的高手。”
4. 优点
Hadoop是一个能够对大量数据进行分布式处理的软件框架,以一种可靠、高效、可伸缩的方式进行数据处理。Hadoop是一个能够让用户轻松架构和使用的分布式计算平台,用户可以轻松地在Hadoop上开发和运行处理海量数据的应用程序。
Hadoop主要有以下几个优点。
(1)高可靠性。因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。
(2)高扩展性。Hadoop是在可用的计算机集群间分配数据并完成计算任务的,这些集群可以方便地扩展到数以千计的节点中。
(3)高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,以并行的方式工作,通过并行处理加快处理速度,因此处理速度非常快。
(4)高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
(5)低成本。与一体机、商用数据仓库等工具相比,Hadoop是开源的,项目的软件成本会大大降低。Hadoop带有用Java语言编写的框架,因此运行在Linux生产平台上也是比较低成本的。
1.2.2 Hadoop生态子项目
尽管Hadoop因MapReduce及其分布式文件系统HDFS而出名,但Hadoop这个名字也用于泛指一组相关的项目,这些相关项目都使用这个基础平台进行分布式计算和海量数据处理,如表1.1所示。
表1.1 Hadoop生态子项目项目描述
本书将重点讲解HDFS、MapReduce、HBase、Hive、Sqoop、Spark等项目,并提供相关项目的综合案例。
1.2.3 Hadoop 3.X的新特性
相较于早期的Hadoop 1.X和Hadoop 2.X,Hadoop 3.X具有很多新的特性。本书采用Hadoop 3.X版本。
对于Hadoop 3.X的新特性,读者可先进行简单了解,不用深入研究,后续章节将进一步讲解。
Hadoop 3.X的主要新特性如下。
(1)Java的最低版本要求从Java 7更改成Java 8。
(2)HDFS支持纠删码(Erasure Coding),从而将数据存储空间节省了50%。
(3)引入YARN的时间轴服务v.2(YARN Timeline Service v.2)。
(4)重写了Shell脚本。
(5)隐藏底层jar包。
(6)支持containers和分布式调度。
(7)MapReduce任务级本地优化。
(8)支持多于两个的NameNodes。
(9)改变了多个服务的默认端口(例如HDFS的Web界面,默认端口由50070变成9870)。
(10)用Intra解决DataNode宕机负载不均衡的问题。
(11)重写守护进程以及任务的堆内存管理。
(12)支持Microsoft Azure Data Lake文件系统。
(13)解决了AMAZON S3的数据一致性问题。