Windows10系统spark3.0.0配置

这篇具有很好参考价值的文章主要介绍了Windows10系统spark3.0.0配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

Windows10系统基本环境:spark3.0.0+hadoop3.1.0+scala2.12.0+java jdk1.8。

一、配置java jdk1.8

1. jdk环境变量配置

环境变量配置路径:电脑→属性→高级系统设置→环境变量

windows下安装spark并配置scala,spark

path中加入:%JAVA_HOME%/bin。
注:jdk版本不宜过高。

2. 配置验证

cmd验证:

java -version

windows下安装spark并配置scala,spark

二、配置scala2.12.0

1.下载scala安装包

官方下载网址:https://www.scala-lang.org/

windows下安装spark并配置scala,spark

选择对应版本,这里我选择的是scala2.12.0版本。

windows下安装spark并配置scala,spark

下载Windows系统对应的压缩包。

windows下安装spark并配置scala,spark

2. 配置scala环境

环境变量配置路径:此电脑→属性→高级系统设置→环境变量

windows下安装spark并配置scala,spark

path中加入:%SCALA_HOME%/bin。

3. 验证配置

cmd验证配置:

scala -version

windows下安装spark并配置scala,spark

三、配置Hadoop3.1.0

1.Hadoop下载

从Apache官网下载Hadoop:https://hadoop.apache.org/
官网下载速度较慢,也可使用国内镜像下载。

2. Hadoop环境变量配置

配置步骤同Scala配置。

注意:需要把%HADOOP_HOME%\bin与%HADOOP_HOME%\sbin一同加入path中。

3. Windows系统bin下载:

windows系统需要替换hadoop安装包里的bin文件夹。

windows下安装spark并配置scala,spark

不同版本bin文件下载链接:https://gitee.com/tlbrun/hadoopWinutils/。
下载成功直接覆盖本地bin。

4. 配置Hadoop启动文档和脚本

配置\etc\hadoop\下的如下5个文件。

windows下安装spark并配置scala,spark

(1)在core-site.xml末尾加入如下代码,代码中路径按照自己本地路径相应修改:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:8900</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>E:/soft/hadoop-3.1.0/tmp/${user.name}</value>

<description>A base for other temporary directories.</description>

</property>

</configuration>

(2)在hdfs-site.xml末尾加入如下代码,代码中路径按照自己本地路径相应修改:

<configuration>

<!-- 这个参数设置为1,因为是单机版hadoop -->

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/namenode</value>

</property>

<property>

<name>fs.checkpoint.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/snn</value>

</property>

<property>

<name>fs.checkpoint.edits.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/snn</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/datanode</value>

</property>

</configuration>

(3)在yarn-site.xml末尾添加如下代码:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

</configuration>

(4)在mapred-site.xml末尾添加如下代码:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

(5)在hadoop-env.cmd配置以下2个地方:

windows下安装spark并配置scala,spark

windows下安装spark并配置scala,spark

5. 启动Hadoop

进入hadoop目录:E:\soft\hadoop-3.1.0\bin,打开cmd,执行命令:

.\hdfs namenode -format

进入目录:E:\soft\hadoop-3.1.0\sbin,找到start-all.cmd,右键以管理员身份运行。
运行完毕可以看到以下四个服务:

windows下安装spark并配置scala,spark

windows下安装spark并配置scala,spark

windows下安装spark并配置scala,spark

windows下安装spark并配置scala,spark

四 、配置Spark3.0.3

1. Spark下载

Spark3.0.3官网下载:

https://spark.apache.org/releases/spark-release-3-0-0.html

2. Spark环境配置

配置步骤同scala配置。

注意:需要把%SPARK_HOME%\bin与%SPARK_HOME%\sbin一同加入path中。

3. 配置验证

cmd命令:

spark-shell

windows下安装spark并配置scala,spark

Spark配置成功。文章来源地址https://www.toymoban.com/news/detail-858212.html

到了这里,关于Windows10系统spark3.0.0配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Windows10 系统安装教程

    多虚不如少实。         下载前景:网上下载的 windows10 系统一般都有捆绑软件,用户体验不爽,所以建议到 正规渠道下载 windows10 系统的不同版本。另外网上也有一些 windows10 系统的镜像文件 可以直接一键安装,非常不推荐这种简单的安装方法,不利于电脑垃圾的清理,

    2024年02月10日
    浏览(31)
  • Mac苹果系统安装双系统Windows10 Windows11 BOOTCAMP

    注意一下所有安装全程接充电器操作,以免安装过程中电脑断电带来不必要影响。 从下列方式选择合适的系统进行下载。 MSDN https://msdn.itellyou.cn/ 微软官方 https://www.microsoft.com/zh-cn/software-download/windows10 把下载好的Windows10镜像文件放在自己熟悉的地方,我这里是直接放在桌面,

    2024年02月16日
    浏览(35)
  • windows10下安装和配置nodejs环境

    官方下载地址:下载最新LTS windows版本:  16.15.0  (includes npm 8.5.5)  Node.js ,如下图 安装可以更改安装路径(我的是默认地址 C:Program Files ) 其余的都是选择 下一步, 安装  测试是否安装 成功 打开开始菜单中输入cmd,打开cmd命令窗口,分别输入如下命令 node -v 查看node的版本 npm

    2023年04月26日
    浏览(36)
  • Windows10安装配置MySQL超详细教程(最新)

    用网盘或者去官网下载Mysql,我这里下载的是社区版,与企业版区别不大 官网下载链接:https://dev.mysql.com/downloads/mysql/ 第一个安装包比较小, 第二个安装包比较大, 因为包含调试工具,我这里下载的是第一个。 选择下方的 “No thanks, just start my download.”,进入下载。 这里的 解

    2023年04月08日
    浏览(28)
  • U盘安装系统实用全面教程(单系统(windows10,windows7,ubuntu),双系统(ubuntu+windows))

    学会U盘安装操作系统是一件可以极大提升自己的一件事情。除硬件以外的问题都可以通过重装系统进行解决。U盘安装操作系统,有这一篇就够啦!这篇文章主要讲如下内容: 1. 如何安装Windwos系统 2. 如何安装Ubuntu系统 3. 如何安装双系统(Windows+Ubuntu) 1 准备大于8G的U盘(太

    2024年02月04日
    浏览(33)
  • nodejs V16.17.0 windows10 安装配置

    一、安装 1. 下载地址  2. 安装过程 二、环境配置 1. 创建文件夹 2. 环境变量 3. 修改路径 4. 配置检测 5. 关于每次npm install 下载依赖包时都需要以管理员身份运行的解决办法  6. vscode命令行以管理员身份运行 1. 下载地址 https://nodejs.org/zh-cn/download/ 在下载页选择合适的安装包进

    2024年02月07日
    浏览(52)
  • deepin,windows10双系统安装教程

    注意:我的电脑是在win10系统后安装的deepin系统。安装系统有风险,请备份好win10系统数据后安装。 分区可以使用DG分区助手,将deepin单独安装在一个盘,大小自己设置,我的是50G. 1.打开deepin官网https://www.deepin.org/zh/mirrors/releases/,下载deepin系统镜像。 2.使用深度启动盘工具ht

    2024年02月05日
    浏览(34)
  • Hive3 on Spark3配置

    大数据组件 版本 Hive 3.1.2 Spark spark-3.0.0-bin-hadoop3.2 OS 版本 MacOS Monterey 12.1 Linux - CentOS 7.6 1)Hive on Spark说明 Hive引擎包括:默认 mr 、 spark 、 Tez 。 Hive on Spark :Hive既作为存储元数据又负责SQL的解析优化,语法是HQL语法,执行引擎变成了Spark,Spark负责采用RDD执行。 Spark on Hive :

    2024年02月04日
    浏览(31)
  • spark3.3.0安装&部署过程

    为了防止不必要的报错,部署之前请务必从开头开始看,切勿跳过其中一个部署模式,因为每一个部署模式都是从上一个模式的配置上进行的 下载地址:https://archive.apache.org/dist/spark/ 本文所下载版本为: spark-3.3.0-bin-hadoop2 环境: hadoop-2.7.5 jdk1.8.0 Scala 所谓的Local模式,就是不需

    2023年04月20日
    浏览(70)
  • windows10系统下快速安装SqlServer教程

    目录 Microsoft SQL Server安装方法 首先得了解什么是Microsoft SQL Server? 区分安装版本 安装

    2024年02月02日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包