添加节点 操作如下: 然后 就可以在namanode机器上运行balancer,执行负载均衡 注:在0.21中执行bin/hadoop-daemon.sh start datanode 会提示该命令已废除,建议使用./hdfs datanode 命令,但是用后者反而会抛异常。 删除节点 比如我原来有10个节点的集群. 现在我想停掉2个,但数据不能丢失,只能让它们的数据转移到其它8台上.这道过程就是decommission. 我们不能直接把那2台停掉, 要在停掉之前把数据转移出去. 首先建立一个excludes文件.它是一个文本, 里面每行就是想要停掉的主机名.这里excludes 放在 $HADOOP_HOME下
做完这步, 用bin/hadoop dfsadmin -refreshNodes命令更新结点以及hadoop配置 然后你可以通过 bin/hadoop dfsadmin -report 就可以查看到类似这样的信息:
Name: 192.168.0.86:50010 State : Decommission in progress Total raw bytes: 30452150272 (28.36 GB) Remaining raw bytes: 17727606637(16.51 GB) Used raw bytes: 6480990208 (6.04 GB) % used: 21.28% Last contact: Thu Nov 27 02:25:40 CST 2008 Name: 192.168.0.89:50010 可以看到86在停止中, 89已经停止了.
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/vozon/archive/2010/10/27/5968939.aspx |
|