Hadoop启动时master节点上没有datanode的解决办法
(2019-01-06 07:32:21)
标签:
it |
分类: Hadoop |
解决办法一:
根据日志中的路径,cd /home/storm/hadoop/tmp/dfs,能看到 data和name两个文件夹, 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID。 让两个保持一致,然后重启,启动后执行jps,查看进程: 20131 SecondaryNameNode 20449 NodeManager 19776 NameNode 21123 Jps 19918 DataNode 20305 ResourceManager
解决办法二:
直接删除掉dfs文件夹中name和data文件夹里的所有内容,重启。
出现该问题的原因:
在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

加载中…