使用idea运行spark项目wordcount出现此类错误:org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0
解决方法如下:
1.确保安装了hadoop。我使用的spark和hadoop版本都是3.3.2,配置环境变量HADOOP_HOME=D:\hadoop-3.3.2,还要注意Path变量要加入%HADOOP_HOME%\bin。
2.还要安装hadoop windows的winutils集成包,注意这里最好是下载与hadoop版本一致的winutils(我这里使用的是winutils的3.3.1版本,也是可行的)
3.将winutils bin目录下所有文件都拷贝到hadoop的bin文件夹中,并把hadoop.dll拷贝到C:\Windows\System32
4.如果还未能解决该错误,还可以在idea中设置run的vm options,即添加Djava.library.path="D:\hadoop-3.3.2"(亲测有效!!!!我在其他教程中都没办法解决该错误,直到看到这一解决方法才运行成功!!!!!)
文章来源:https://www.toymoban.com/news/detail-652830.html
文章来源地址https://www.toymoban.com/news/detail-652830.html
到了这里,关于idea运行spark项目报错:org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!