最近在回顾之前做过的离线数仓项目,在启动hadoop时出现了如下错误:
hadoop102: mv: 无法获取"/opt/module/hadoop/logs/hadoop-atguigu-nodemanager-hadoop102.out.1" 的文件状态(stat): 没有那个文件或目录
hadoop102: mv: 无法获取"/opt/module/hadoop/logs/hadoop-atguigu-nodemanager-hadoop102.out" 的文件状态(stat): 没有那个文件或目录
经过一些资料搜集发现问题的根本原因在于/opt/module/hadoop/etc/hadoop/目录下的workers文件配置出现错误。
文件内容不能够包含localhost
我原本的文件配置如下:
修改后配置如下:
我们简单解释一下workers文件的作用:
在workers文件中,每行包含一个工作节点的主机名或IP地址。这些工作节点将被Hadoop集群用于执行MapReduce作业和其他任务。
例如,如果你有一个3节点的Hadoop集群,你可以在workers文件中添加以下内容:文章来源:https://www.toymoban.com/news/detail-753707.html
hadoop102
hadoop103
hadoop104
要注意,文件中的主机名必须是已经注册好的,且整个集群中的节点都可以相互访问。如果加入localhost,就意味着每个节点的workers文件不一致,且每个机器中的localhost都不一样,就导致hadoop启动时的初始化工作无法顺利完成。因为某些机器无法访问localhost。文章来源地址https://www.toymoban.com/news/detail-753707.html
到了这里,关于mv: 无法获取“/opt/module/hadoop/logs/hadoop-atguigu-nodemanager-hadoop102.out.1“ 的文件状态(stat): 没有那个文件或目录的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!