今天在搭建hadoop集群时,在启动hdfs时报异常了,异常信息为以下内容:
node01: head: cannot open ‘/home/install/hadoop-2.6.0-cdh5.14.2/logs/hadoop-hadoop-namenode-node01.com.out’ for reading: No such file or directory
根据在网上找的答案是如下的文件没有创建:
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/namenodeDatas
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/datanodeDatas
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/dfs/nn/edits
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/dfs/snn/name
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/dfs/nn/snn/edits
但是我查看了三个节点的文件信息,完全不是网上说的情况,经过询问万能的编程的网友,原因果然真的找到了,
那就是我的hadoop文件夹下的权限没有给我这个普通的用户,我是用普通用户进行执行start-dfs.sh命令的,
然后执行下面的命令就解决了:
chown -R userName:userName /hadoop
# userName : 指的需要使用的用户名
# /hadoop : 指的是hadoop安装的主文件夹
# chown 命令需要在 root用户下进行执行,进行文件权限的分配
来源:CSDN
作者:东耳飘雪
链接:https://blog.csdn.net/bababuzaijia/article/details/103796424