加载中…
个人资料
心蓝
心蓝
  • 博客等级:
  • 博客积分:0
  • 博客访问:57,842
  • 关注人气:1
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

Hadoop启动时master节点上没有datanode的解决办法

(2019-01-06 07:32:21)
标签:

it

分类: Hadoop

解决办法一:

根据日志中的路径,cd /home/storm/hadoop/tmp/dfs,能看到 data和name两个文件夹, 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID。 让两个保持一致,然后重启,启动后执行jps,查看进程: 20131 SecondaryNameNode 20449 NodeManager 19776 NameNode 21123 Jps 19918 DataNode 20305 ResourceManager

解决办法二:

直接删除掉dfs文件夹中name和data文件夹里的所有内容,重启。

出现该问题的原因:

在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。


0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有