原创

格式化两次datanode无法启动的解决办法

温馨提示:
本文最后更新于 2019年09月20日,已超过 1,890 天没有更新。若文章内的图片失效(无法正常加载),请留言反馈或直接联系我

datanode无法启动报错,日志:

我看到了UUID,马上想到了clusterID,因为clusterID是UUID生成的,五台节点都要一致,namenode的clusterID和datanode的clusterID都要一致,都要是namenode的。

因为我配置错了,格式化了两次,所以会出现这样子的问题。

slaves之前也配置了三台datanode的主机名,所以,跟这个无关:

修改为namenode的clusterID的UUID序列号(两台namenode和三台datanode的clusterID要保持一致):

修改后,启动成功:

还有一种办法就是删除hadoop的data数据,重新格式化,我推荐修改一致。

本文目录