从hadoop-1.0.3升级到hadoop-1.2.1
将生产环境下hadoop-1.0.3升级到hadoop-1.2.1,且数据不丢失.
hadoop安装目录结构
1 | [cloudiyadatauser@c01 opt]$ ls -al /opt/cloudiyaDataCluster/ |
以下所有操作需在namenode下,以hadoop管理员账号进行,我的管理员账号是cloudiyadatauser。
勇于尝试心中所想
从hadoop-1.0.3升级到hadoop-1.2.1
将生产环境下hadoop-1.0.3升级到hadoop-1.2.1,且数据不丢失.
hadoop安装目录结构
1 | [cloudiyadatauser@c01 opt]$ ls -al /opt/cloudiyaDataCluster/ |
以下所有操作需在namenode下,以hadoop管理员账号进行,我的管理员账号是cloudiyadatauser。
mapper间资源冲突
由同一作业启用的多个mapper在同一任务节点运行时,各个mapper在该节点使用的资源不能相冲突.
如在mapper.py里有这样一段程序:
1 | f = open("/tmp/vid.txt","r") |
如果同一作业有两个mapper被分配到同一任务节点执行,
那前一个mapper在执行完后,删除了后一个mapper需要的资源”/tmp/vid.txt”,那后面这个mapper就执行失败了.
所以对于每个mapper在任务节点使用的资源相互之间隔离开,互不影响.
hadoop运行一段时间后,无法stop-all.sh停止
在hadoop集群运行一段时间后 ,无法通过stop-all.sh关闭hadoop.
From Google
1 | 今天发现一个问题,当hadoop集群运行一段时间以后,无法停止服务。执行stop-all的时候提示 no tasktracker to stop ,no datanode to stop。 |
hadoop集群动态增加节点
include文件只存在于namenode本地
1 | hdfs-site.xml |
前言
如果主节点挂掉了,硬盘数据需要时间恢复或者不能恢复了,现在又想立刻恢复HDFS,
这个时候就可以import checkpoint。步骤如下:
这样NameNode会读取checkpoint文件,保存到dfs.name.dir。但是如果你的dfs.name.dir包含合法的fsimage,是会执行失败的。
因为NameNode会检查fs.checkpoint.dir目录下镜像的一致性,但是不会去改动它。
以上是Namenode Manual Failover的依据,来自Google.
以下是我实验的过程!