发布于2021-06-12 13:19 阅读(492) 评论(0) 点赞(12) 收藏(1)
在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format)。然后再启动发现一个DataNode都没有启动
查看日志发现
java.io.IOException:Incompatible clusterIDs in /home/storm/hadoop/dfs/data: namenode clusterID XXXX
日志上看,datanode的clusterID 和 namenode的clusterID 不匹配。
在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
那思路就很简单了,将NameNode的Cluster ID复制到所有的DataNode 进行覆盖即可,VERSION 文件保存Cluster ID等节点信息。我们先find 找到对应的VERSION文件路径,记得先关闭Hadoop!
我的node1是NameNode,其他节点都是DataNode,保证所有DataNode的Cluster ID都是和NameNode一致即可
node4是node3复制过来的(我在4台虚拟机搭的完全分布式Hadoop),
但是DataNode不会同时显示node3和node4,反复刷新网页会随机显示~
能刷出来说明配置正常,那就是VERSION文件的datanodeUuid配置问题了。
find / -iname “VERSION”
我的VERSION文件路径是/opt/hadoopdata/dfs/data/current/VERSION
把datanodeUuid随便改个把字母保证和其他DataNode不一样即可
顺利解决!
作者:我很伤感
链接:http://www.javaheidong.com/blog/article/221848/2d927ecd6f29158feaa4/
来源:java黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 java黑洞网 All Rights Reserved 版权所有,并保留所有权利。京ICP备18063182号-2
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!