博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop2集群中的datanode启动以后自动关闭的问题
阅读量:6187 次
发布时间:2019-06-21

本文共 603 字,大约阅读时间需要 2 分钟。

今天在启动前几天搭建成功的hadoop集群的时候,出现了datanode启动之后自动关闭的情况,经过查询之后发现问题产生的原因是:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

(该路径是配置文件hdfs-site.xml中指定的dfs.tmp.dir路径,如果在hdfs-site.xml中没有配置该属性,则该路径将为core-site.xml文件中指定的hadoop.tmp.dir路径)

 第一种方法:

 删除运行datanode的机器上的tmp文件夹,重新启动集群,启动成功!

(但是上面的方法会将hdfs中的所有文件删除,如果上面存有重要的文件,并不建议这么做!)

第二种方法:

将namenode机器上的dfs.tmp.dir/tmp/dfs/name/current里面的VERSION文件的clusterID属性值赋值给datanode机器上的dfs.tmp.dir/tmp/dfs/data/current里面的VERSION文件中的clusterID属性。让两个保持一致。

至此,重新启动集群,问题解决!

转载于:https://www.cnblogs.com/xiaohua92/p/5472633.html

你可能感兴趣的文章
CentOS 6.5开放端口方法
查看>>
Java 内存分配策略
查看>>
[Todo] Nodejs学习及Spider实验(包括php入门学习、React入门学习)
查看>>
笔记本在安装Windows+Linux双系统后,进入Windows时花屏的解决办法
查看>>
【转】百度面试
查看>>
java集合框架
查看>>
智课雅思词汇---十六、前缀hyper和hypo是反义词
查看>>
AsyncTask2
查看>>
区间覆盖(线段树)
查看>>
java读取excel
查看>>
html_之css
查看>>
读书技巧
查看>>
select有条件in要按照in中的数据排序
查看>>
a各种状态
查看>>
Boostrap常用组件英文名
查看>>
python局部赋值规则
查看>>
Notepad++的列编辑功能
查看>>
编码规范
查看>>
基于OpenGL编写一个简易的2D渲染框架-04 绘制图片
查看>>
Markdown基本语法总结
查看>>