Spark环境搭建安装及配置详细步骤(保姆教程)

这篇具有很好参考价值的文章主要介绍了Spark环境搭建安装及配置详细步骤(保姆教程)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Spark 作为一个数据处理框架和计算引擎

1 Spark-Local 模式 
1.1 解压缩文件 
将 spark-2.1.1-bin-hadoop3.2.tgz 文件上传到 Linux 并解压缩,放置在指定位置,路径中。 

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz -C /opt/apps/
cd /opt/apps/
mv spark-2.1.1-bin-hadoop2.7 spark-local 


1.2 启动 Local 环境 
1) 进入解压缩后的路径,执行如下指令 

bin/spark-shell

Spark环境搭建安装及配置详细步骤(保姆教程) 2) 启动成功后,可以输入网址进行 Web UI 监控页面访问

Spark环境搭建安装及配置详细步骤(保姆教程)

 1.4 退出本地模式 
按键 Ctrl+C 或输入 Scala 指令 :quit 
1.5 提交应用 

bin/spark-submit --class org.apache.spark.examples.SparkPi --master local[2] ./examples/jars/spark-examples_2.12-3.0.0.jar 10

Spark环境搭建安装及配置详细步骤(保姆教程)
1) --class 表示要执行程序,此处可以更换
2) --master local[2] 部署模式,默认为本地模式,数字表示分配的虚拟 CPU 核数量 
3) spark-examples_2.12-3.0.0.jar 运行的应用类所在的 jar 包,实际使用时,可以更改jar
4) 数字 10 表示程序的入口参数,用于设定当前应用的任务数量 

 2 Spark-Standalone 模式 
1.1 解压缩文件 
将 spark-2.1.1-bin-hadoop3.2.tgz 文件上传到 Linux 并解压缩,放置在指定位置,路径中。 

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz -C /opt/apps/
cd /opt/apps/
 mv spark-2.1.1-bin-hadoop2.7 spark-standalone 

2.2 修改配置文件 
1) 进入解压缩后路径的 conf 目录,修改 slaves.template 文件名为 slaves 

mv slaves.template slaves 

2) 修改 slaves 文件,添加 work 节点 

master
slave1
slave2

3) 修改 spark-env.sh.template 文件名为 spark-env.sh 

mv spark-env.sh.template spark-env.sh 


4) 修改 spark-env.sh 文件,添加 JAVA_HOME 环境变量和集群对应的 master 节点 

export JAVA_HOME=/opt/apps/jdk
SPARK_MASTER_HOST=master
SPARK_MASTER_PORT=7077

5) 分发 spark-standalone 目录

6)启动集群

sbin/start-all.sh

Spark环境搭建安装及配置详细步骤(保姆教程)

 9) 查看 Master 资源监控 Web UI 界面: http://master:8080Spark环境搭建安装及配置详细步骤(保姆教程)

 10)跑任务测试

bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 ./examples/jars/spark-examples_2.11-2.1.1.jar 10

Spark环境搭建安装及配置详细步骤(保姆教程)

 文章来源地址https://www.toymoban.com/news/detail-431825.html

1) --class 表示要执行程序的主类 
2) --master spark://master:7077 独立部署模式,连接到 Spark 集群 
3) spark-examples_2.11-2.1.1.jar 运行类所在的 jar 包 
4) 数字 10 ,用于设定当前应用的任务数量 

3 Yarn 模式 

3.1 解压缩文件 
将 spark-2.1.1-bin-hadoop3.2.tgz 文件上传到 Linux 并解压缩,放置在指定位置,路径中。 

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz -C /opt/apps/
cd /opt/apps/
mv spark-2.1.1-bin-hadoop2.7 spark-yarn

3.2 修改配置文件 
1) 修改 hadoop 配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分发

hadoop搭建

<!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认
是 true --> 
<property> 
 <name>yarn.nodemanager.pmem-check-enabled</name> 
 <value>false</value> 
</property> 
 
<!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认
是 true --> 
<property> 
 <name>yarn.nodemanager.vmem-check-enabled</name> 
 <value>false</value> 
</property> 

 2) 修改 conf/spark-env.sh,添加 JAVA_HOME 和 YARN_CONF_DIR 配置

export JAVA_HOME=/opt/apps/jdk
YARN_CONF_DIR=/opt/apps/hadoop-2.7.7/etc/hadoop

3) 启动 Hadoop

Spark环境搭建安装及配置详细步骤(保姆教程)

4)跑任务测试是不是成功

 4.1)打印控制台

bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode client ./examples/jars/spark-examples_2.11-2.1.1.jar 10

Spark环境搭建安装及配置详细步骤(保姆教程)

4.2)在yarn上看结果

bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster ./examples/jars/spark-examples_2.11-2.1.1.jar 10

Spark环境搭建安装及配置详细步骤(保姆教程)

 

到了这里,关于Spark环境搭建安装及配置详细步骤(保姆教程)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • odoo 本地安装搭建环境 (windows版 保姆级教程)

            最近换工作,也换了一个技术栈--odoo,以前在神码也做过odoo,但是当时数据库都是连的远程的服务器的数据库,现在这家公司数据库也得用本地的,就这点差别吧。         后面我也会把我在odoo的经验积累和研创都在csdn记录下,一是当作自己的一个笔记,二是

    2024年02月09日
    浏览(38)
  • Mysql超详细安装配置教程(保姆级)

    目录 一、下载Mysql 二、安装Mysql 三、配置Mysql 四、连接Mysql 五、部分疑难问题 从官网下载MySQL,这里我选用的是Mysql8.0.34版本    下载完成后直接双击进行安装,打开后的页面如下所示: “Developer Default”是开发者默认 “Server only”仅作为服务器安装 “Clientonly”仅作为客户

    2024年02月14日
    浏览(20)
  • [phpStudy2018的安装教程--dvwa环境指南]--搭建环境操作步骤

    windows7 环境 PhpStudy2018文件 dvwa文件 解压PhpStudy2018,把PhpStudy2018建议放D盘啦。 我虚拟机只有一个C盘,建议你放在D盘啦 (1)打开C盘根目录的路径:C:WindowsSystem32driversetc (2)打开hosts文件,修改相应域名的网址(提示:多个项目可添加多个域名) 若旧版一次全启动不起来

    2023年04月16日
    浏览(20)
  • 保姆级别——Android Studio安装教程&环境变量配置

    1.1 官网下载地址: Download Android Studio and SDK tools  |  Android Developers 1.2 找到下载好的安装包,双击,再按以下步骤操作。 1.3 这里点击Browse更换安装路径(推荐),也可以安装在默认路径下。 1.4 安装完成后勾选Start Android Studio启动并点击finish。  1.5 启动完成选择不导入配置,然

    2024年02月16日
    浏览(23)
  • MySQL安装配置教程(保姆级,包含环境变量的配置)适合小白

    点击下载链接 官网下载 2.官网下载 3.官网下载 4.官网下载 5.官网下载   这里我们无需注册,只需要点下载就好 1.安装配置   选择第一个 2.安装配置 3.安装配置 4.安装配置 5.安装配置 6.安装配置 7.安装配置 8.安装配置 9.安装配置   这里我们需要输入自己的 密码 ,需要

    2024年02月09日
    浏览(27)
  • MinGW下载和安装详细步骤 及 环境配置

    一、下载 点击 这里 进入官网下载最新版本的MinGW。(这里下载的是Windows32位,但MinGW的所有软件都将在64位Windows平台上执行,所以32位和64位都是一样的。) 二、安装 1.  下载完成后,双击程序进行安装;  2. 点击【Install】; 3. 点击【continue】; 4. 这里等待一下,等它安装

    2024年01月25日
    浏览(25)
  • Mac 安装配置adb命令环境(详细步骤)

    因为android sdk里边开发的一些包都是依赖java语言的,所以,首先要确保已经配置了java环境。 Android Studio官网下载链接 详细的安装连接请参考 Mac 安装Android studio 在安装完成之后,将android的adb工具所在目录加入环境变量里面。 (1) 修改.bash_profile文件中的内容 在终端中输入 vi

    2024年02月14日
    浏览(26)
  • 【window环境】Python安装与深度学习环境(tensorflow)配置保姆教程

    此贴主要记录window环境下,python安装、配置python环境及tensorflow(GPU、CPU)的配置。初学者记录贴,如内容有误,还请各位大佬指出来。 (1)访问Anaconda官网( https://docs.conda.io/en/latest/miniconda.html ),点击所需版本的下载链接。 (例如: https://repo.anaconda.com/miniconda/Miniconda3-

    2024年02月02日
    浏览(31)
  • 记录:clion上开发stm32 环境配置(保姆级详细教程)----->2023_7_1

    clion _______百度网盘下载链接-------提取码:166b 注 :此链接clion是破解版的,下载无需安装,解压完了先运行主目录里的绿化脚本,然后再打开bin文件夹里的clion。 OpenOCD ______直达链接 或 首页地址 MingW ______直达链接 或 首页地址 arm-none-eabi-gcc ______直达链接 或 首页地址 STM32CubeMX ____

    2024年02月07日
    浏览(20)
  • 11.Linux下Spark的安装配置以及spark-shell的启动和 Spark集群环境搭建

    本案例软件包:链接:https://pan.baidu.com/s/1zABhjj2umontXe2CYBW_DQ  提取码:1123(若链接失效在下面评论,我会及时更新). 目录 (1)安装Spark 1.先用xftp将安装包传到home/hadoop/Downloads文件夹下,然后解压安装。 2.解压缩: 3. 更改文件夹名称: 4.修改hadoop用户对文件夹spark的访问权限

    2024年02月06日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包