Fork me on GitHub

HDFS基础学习-四

NameNode和SecondaryNameNode

NN和2NN工作机制

思考:NameNode中的元数据是存储在哪里的?

首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage。

这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新FsImage,就会导致效率过低,但如果不更新,就会发生一致性问题,一旦NameNode节点断电,就会产生数据丢失。因此,引入Edits文件(只进行追加操作,效率很高)。每当元数据有更新或者添加元数据时,修改内存中的元数据并追加到Edits中。这样,一旦NameNode节点断电,可以通过FsImage和Edits的合并,合成元数据。

但是,如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImage和Edits的合并,如果这个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNamenode,专门用于FsImage和Edits的合并。

image

  1. 第一阶段:NameNode启动
  • (1)第一次启动NameNode格式化后,创建Fsimage和Edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。
  • (2)客户端对元数据进行增删改的请求。
  • (3)NameNode记录操作日志,更新滚动日志。
  • (4)NameNode在内存中对数据进行增删改。
  1. 第二阶段:Secondary NameNode工作
  • (1)Secondary NameNode询问NameNode是否需要CheckPoint。直接带回NameNode是否检查结果。
  • (2)Secondary NameNode请求执行CheckPoint。
  • (3)NameNode滚动正在写的Edits日志。
  • (4)将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。
  • (5)Secondary NameNode加载编辑日志和镜像文件到内存,并合并。
  • (6)生成新的镜像文件fsimage.chkpoint。
  • (7)拷贝fsimage.chkpoint到NameNode。
  • (8)NameNode将fsimage.chkpoint重新命名成fsimage。
NN和2NN工作机制详解:

Fsimage:NameNode内存中元数据序列化后形成的文件。

Edits:记录客户端更新元数据信息的每一步操作(可通过Edits运算出元数据)。

NameNode启动时,先滚动Edits并生成一个空的edits.inprogress,然后加载Edits和Fsimage到内存中,此时NameNode内存就持有最新的元数据信息。Client开始对NameNode发送元数据的增删改的请求,这些请求的操作首先会被记录到edits.inprogress中(查询元数据的操作不会被记录在Edits中,因为查询操作不会更改元数据信息),如果此时NameNode挂掉,重启后会从Edits中读取元数据的信息。然后,NameNode会在内存中执行元数据的增删改的操作。

由于Edits中记录的操作会越来越多,Edits文件会越来越大,导致NameNode在启动加载Edits时会很慢,所以需要对Edits和Fsimage进行合并(所谓合并,就是将Edits和Fsimage加载到内存中,照着Edits中的操作一步步执行,最终形成新的Fsimage)。SecondaryNameNode的作用就是帮助NameNode进行Edits和Fsimage的合并工作。

SecondaryNameNode首先会询问NameNode是否需要CheckPoint(触发CheckPoint需要满足两个条件中的任意一个,定时时间到和Edits中数据写满了)。直接带回NameNode是否检查结果。SecondaryNameNode执行CheckPoint操作,首先会让NameNode滚动Edits并生成一个空的edits.inprogress,滚动Edits的目的是给Edits打个标记,以后所有新的操作都写入edits.inprogress,其他未合并的Edits和Fsimage会拷贝到SecondaryNameNode的本地,然后将拷贝的Edits和Fsimage加载到内存中进行合并,生成fsimage.chkpoint,然后将fsimage.chkpoint拷贝给NameNode,重命名为Fsimage后替换掉原来的Fsimage。NameNode在启动时就只需要加载之前未合并的Edits和Fsimage即可,因为合并过的Edits中的元数据信息已经被记录在Fsimage中。

#### Fsimage和Edits解析

image

image
image

> seen_txid的内容就是当前最新的编辑日志的编号

查看Fsimage内容

image

image

image

将转换出的xml复制到外面,比如IDEA中,格式化后就可以方便的查看

image

但是这个xml的信息不全,这是为什么??因为我们查看的不是最新的fsimage啊

查看Edits内容

image

image

所以我们现在将集群给搞挂了,传一些数据,看其是怎么运行的

先关闭集群

image

image

破坏集群

image

image

image

启动集群

image

image

上传文件

image

再次查看fsimage和edits的内容

image

image

image

CheckPoint时间设置

  1. 通常情况下,SecondaryNameNode每隔一小时执行一次。
[hdfs-default.xml]
1
2
3
4
<property>
<name>dfs.namenode.checkpoint.period</name>
<value>3600</value>
</property>
  1. 一分钟检查一次操作次数,3当操作次数达到1百万时,SecondaryNameNode执行一次。
1
2
3
4
5
6
7
8
9
10
11
<property>
<name>dfs.namenode.checkpoint.txns</name>
<value>1000000</value>
<description>操作动作次数</description>
</property>

<property>
<name>dfs.namenode.checkpoint.check.period</name>
<value>60</value>
<description> 1分钟检查一次操作次数</description>
</property >

NameNode故障处理

方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录;
  1. kill -9 NameNode进程

image

  1. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
1
[root@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

image

  1. 拷贝SecondaryNameNode中数据到原NameNode存储数据目录
1
[root@hadoop102 dfs]$ scp -r root@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/

image

  1. 重新启动NameNode
1
[root@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。
  1. 修改hdfs-site.xml中的
1
2
3
4
5
6
7
8
9
<property>
<name>dfs.namenode.checkpoint.period</name>
<value>120</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value>
</property>

image

image

image

  1. kill -9 NameNode进程

image

  1. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
1
[root@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*
  1. 如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件
1
2
3
4
5
6
7
8
9
[root@hadoop102 dfs]$ scp -r root@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./

[root@hadoop102 namesecondary]$ rm -rf in_use.lock

[root@hadoop102 dfs]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs

[root@hadoop102 dfs]$ ls
data name namesecondary

image

  1. 导入检查点数据(等待一会ctrl+c结束掉)
1
[root@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importCheckpoint

image

ctrl+c结束掉后,发现namenode又挂了

  1. 启动NameNode
1
[root@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

image

集群的安全模式

image

基本语法

集群处于安全模式,不能执行重要操作(写操作)。集群启动完成后,自动退出安全模式。

  • bin/hdfs dfsadmin -safemode get (功能描述:查看安全模式状态)
  • bin/hdfs dfsadmin -safemode enter (功能描述:进入安全模式状态)
  • bin/hdfs dfsadmin -safemode leave (功能描述:离开安全模式状态)
  • bin/hdfs dfsadmin -safemode wait (功能描述:等待安全模式状态)
模拟等待安全模式
  1. 查看当前模式
1
2
[root@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -safemode get
Safe mode is OFF
  1. 先进入安全模式
1
[root@hadoop102 hadoop-2.7.2]$ bin/hdfs dfsadmin -safemode enter
  1. 创建并执行下面的脚本

在/opt/module/hadoop-2.7.2路径上,编辑一个脚本safemode.sh

1
2
3
4
5
6
7
8
9
10
[root@hadoop102 hadoop-2.7.2]$ touch safemode.sh
[root@hadoop102 hadoop-2.7.2]$ vim safemode.sh

#!/bin/bash
hdfs dfsadmin -safemode wait
hdfs dfs -put /opt/module/hadoop-2.7.2/README.txt /

[root@hadoop102 hadoop-2.7.2]$ chmod 777 safemode.sh

[root@hadoop102 hadoop-2.7.2]$ bash safemode.sh

image

  1. 再打开一个窗口,执行
1
[root@hadoop102 hadoop-2.7.2]$ bin/hdfs dfsadmin -safemode leave
  1. 观察
1
2
3
(a)再观察上一个窗口
Safe mode is OFF
(b)HDFS集群上已经有上传的数据了。

NameNode多目录配置

注意得把集群重新配置,删除data和logs,并且format namenode
  1. NameNode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性
  2. 具体配置如下
  • 在hdfs-site.xml文件中增加如下内容
1
2
3
4
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///${hadoop.tmp.dir}/dfs/name1,file:///${hadoop.tmp.dir}/dfs/name2</value>
</property>
  • 停止集群,删除data和logs中所有数据。
1
2
3
[root@hadoop102 hadoop-2.7.2]$ rm -rf data/ logs/
[root@hadoop103 hadoop-2.7.2]$ rm -rf data/ logs/
[root@hadoop104 hadoop-2.7.2]$ rm -rf data/ logs/
  • 格式化集群并启动。
1
2
[root@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode –format
[root@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
  • 查看结果
1
2
3
4
5
[root@hadoop102 dfs]$ ll
总用量 12
drwx------. 3 root root 4096 12月 11 08:03 data
drwxrwxr-x. 3 root root 4096 12月 11 08:03 name1
drwxrwxr-x. 3 root root 4096 12月 11 08:03 name2