博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop集群出现no data node to stop的解决方案
阅读量:6425 次
发布时间:2019-06-23

本文共 385 字,大约阅读时间需要 1 分钟。

问题描述:

今天stop hadoop集群的时候出现no datanode to stop ,寻找解决方案,并不是网上资料所说的什么DFS Used 、Non DFS Used等于0 、所有的节点都是可用的。大概是因为格式化文件系统(命令:hadoop namenode -fromat )的时候,namenode产生的新的namespacelID与datanode所持有的namespaceID不一致导致的问题。

 

解决方案:

1.写一个脚本,利用ssh自动远程登录,删除所有集群中的dfs.data.dir(这个文件夹所在的地址是自己在配置的)文件夹下的/data/

2.重新格式化文件系统hadoop namenode -format

重启集群OK,错误消失。

 

转载于:https://www.cnblogs.com/battlecry/p/4687794.html

你可能感兴趣的文章
iPhoneX隐藏状态栏
查看>>
重读《JAVA与模式》之一
查看>>
一、Mycat 环境搭建
查看>>
关于Java Servlet编译的问题
查看>>
动态库和静态库及混合链接
查看>>
python3 md5加密
查看>>
为啥虚拟内存占用很多
查看>>
OpenSSL-RSA
查看>>
nvm 使用攻略
查看>>
优秀的jQuery自动补齐插件和多值输入插件推荐
查看>>
编程的智慧
查看>>
IOS--CALayer(图层类)
查看>>
进程与线程的理解和直观比喻
查看>>
常用的垃圾回收机制介绍
查看>>
在使用pyqt videopalyer不能播放MP4的解决方法
查看>>
django中timezone转换
查看>>
字符设备驱动程序——定时器去抖动按键驱动
查看>>
ASP.NET Core Kestrel 中使用 HTTPS (SSL)
查看>>
js 动态获取对象属性
查看>>
开发小记
查看>>