1.修改conf/core-site.xml
增加
fs.checkpoint.period表示多長時間記錄一次hdfs的映象。預設是1小時。
fs.checkpoint.size表示一次記錄多大的size,預設64M
2.修改conf/hdfs-site.xml
0.0.0.0改為namenode的IP地址
3.重啟hadoop,然後檢查是否啟動是否成功
登入secondarynamenode所在的機器,輸入jps檢視secondarynamenode程序
進入secondarynamenode的目錄/data/work/hdfs/namesecondary
正確的結果:
4.恢復
製造namenode宕機的情況
1) kill 掉namenode的程序
[root@master name]# jps
11749 NameNode
12339 Jps
11905 JobTracker
[root@master name]# kill 11749
[root@master name]# rm -rf *
3)從secondarynamenode遠端複製namesecondary檔案到namenode的namesecondary
[root@master hdfs]# scp -r slave-001:/data/work/hdfs/namesecondary/ ./
4)啟動namenode
[root@master /data]# hadoop namenode –importCheckpoint
正常啟動以後,螢幕上會顯示很多log,這個時候namenode就可以正常訪問了
1.修改conf/core-site.xml
增加
fs.checkpoint.period表示多長時間記錄一次hdfs的映象。預設是1小時。
fs.checkpoint.size表示一次記錄多大的size,預設64M
2.修改conf/hdfs-site.xml
增加
0.0.0.0改為namenode的IP地址
3.重啟hadoop,然後檢查是否啟動是否成功
登入secondarynamenode所在的機器,輸入jps檢視secondarynamenode程序
進入secondarynamenode的目錄/data/work/hdfs/namesecondary
正確的結果:
4.恢復
製造namenode宕機的情況
1) kill 掉namenode的程序
[root@master name]# jps
11749 NameNode
12339 Jps
11905 JobTracker
[root@master name]# kill 11749
[root@master name]# rm -rf *
3)從secondarynamenode遠端複製namesecondary檔案到namenode的namesecondary
[root@master hdfs]# scp -r slave-001:/data/work/hdfs/namesecondary/ ./
4)啟動namenode
[root@master /data]# hadoop namenode –importCheckpoint
正常啟動以後,螢幕上會顯示很多log,這個時候namenode就可以正常訪問了