centos7 +hadoop2.7.3+服务器1核2G内存
--------------------fen ge xian------------
实验一直使用root用户进行。
namenode日志如下图:。。。。。
ulimit -a for user root
core file size (blocks, -c) 0
data seg size ...
1、数据量变大后重启namenode失败。
修改
vi /var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_namenode.py
头部添加
import time
添加循环
if leave_safe_mode:上面添加
for i in range(1,90+1,1):
...