IDEA中Spark配置

这篇具有很好参考价值的文章主要介绍了IDEA中Spark配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

scala和spark版本对应关系:https://blog.csdn.net/qq_34319644/article/details/115555522

这里采用jdk1.8+spark3.0+scala2.12

先配置scala 2.12:

官网:https://www.scala-lang.org/download/2.12.17.html

tar -zxf scala-2.12.17.tgz

vim .bashrc

export SCALA_HOME=/home/xingmo/sdk/scala
export PATH=$PATH:$SCALA_HOME/bin

source .bashrc

IDEA安装scala插件:file->setting

IDEA中Spark配置

添加libraries:file->project structure

IDEA中Spark配置
IDEA中Spark配置

scala测试:

package spark.core

object Test {
  def main(args:Array[String]):Unit = {
    println("Hello Spark")
  }
}

jdk版本记得切换:

可参考:https://blog.csdn.net/weixin_45490198/article/details/125119932

IDEA中Spark配置IDEA中Spark配置
IDEA中Spark配置文章来源地址https://www.toymoban.com/news/detail-412779.html

mave依赖:

<dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>
    </dependencies>

配置完成,测试代码:

package spark.core.wc

import org.apache.spark.{SparkConf, SparkContext}

object Spark01_WordCount {
  def main(array: Array[String]):Unit={
    // TODO 建立和Spark框架的连接
    val sparConf = new SparkConf().setMaster("local").setAppName("WordCount")
    val sc = new SparkContext(sparConf)

    // TODO 执行业务操作

    // TODO 关闭连接
    sc.stop()
  }
}

到了这里,关于IDEA中Spark配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 2023_Spark_实验五:Scala面向对象部分演示(一)(IDEA开发)

    1、面向对象的基本概念 把数据及对数据的操作方法放在一起,作为一个相互依存的整体——对象,面向 对象的三大特征:  封装  继承  多态 2、类的定义 简单类和无参方法 如果要开发main方法,需要将main方法定义在该类的伴生对象中,即:object对 象中,(后续做详细的讨

    2024年02月10日
    浏览(41)
  • 【用IDEA基于Scala2.12.18开发Spark 3.4.1 项目】

    打开IDEA后选址新建项目 选址sbt选项 配置JDK debug 解决方案 相关的依赖下载出问题多的话,可以关闭idea,重启再等等即可。 将sbt源设置为国内源 基于sbt添加依赖 spark-sql spark-core Spark sql simleapp代码如下: Spark RDD代码如下: 到此,基于Scala2.12.18开发Spark 3.4.1 项目完成。

    2024年02月14日
    浏览(36)
  • Mac 配置Hadoop、spark、Scala、jdk

    下载地址: Java Downloads | Oracle 1.下载好使用 终端 进行解压 2.配置环境变量 1.终端打开 .bash_profile 2.将以下代码放进 .bash_profile 里面(注意修改路径) 3.esc按键 + :号键 输入 wq (保存并退出) 4.重新加载 .bash_profile 文件 5.输入以下代码检查配置是否成功 下载链接: News | Apache

    2024年03月26日
    浏览(44)
  • 【Spark】配置参数关系-重要

    并行度指所有Executor可以同时执行的Task数, 每个Executor中的一个Core(线程,虚拟核数)同时只能执行一个Task, 所以  最大并行度 = Executor数量 * 每个Executor的Core数; eg:资源配置10个Executor节点,每个节点2个Core,那么同一时间可以并行计算的task数为20, 如果RDD有100个分区,

    2024年02月08日
    浏览(32)
  • spring boot java项目整合Scala&Spark,接口api调用方式调用scala代码,配置分享

    版本说明: spring boot: 2.5.9 jdk:1.8 spark:2.4.5 sclala:2.11.12 首先你需要有一个完美的spring boot项目(java版本)能成功运行,这就不赘述了,按照网上的自己搭建吧,然后重要的来了,我捣鼓了两天时间,各样的报错见过了,网上的处理方法要嘛是不全,要嘛是没有用,各种办

    2024年02月10日
    浏览(52)
  • hadoop(伪分布式)上的spark和Scala安装与配置详细版

    在搭建spark和Scala前提下,必需安装好hive和java,和 Hadoop的伪分布式 哦 1、安装与配置Scale        (1)去官网下载Scala         官网地址: The Scala Programming Language (scala-lang.org) https://www.scala-lang.org/ 这里我要的是scala-2.2.12.12.tgz 然后我们点击 all releases 点进去之后往下找 然后

    2024年04月28日
    浏览(50)
  • 构建大数据环境:Hadoop、MySQL、Hive、Scala和Spark的安装与配置

    在当今的数据驱动时代,构建一个强大的大数据环境对于企业和组织来说至关重要。本文将介绍如何安装和配置Hadoop、MySQL、Hive、Scala和Spark,以搭建一个完整的大数据环境。 安装Hadoop 首先,从Apache Hadoop的官方网站下载所需的Hadoop发行版。选择适合你系统的二进制发行版,下

    2024年02月11日
    浏览(53)
  • idea配置spark环境

     1. 首先,需要准备maven的环境配置,我的idea是2021版本,(新版应该差不多) 下载maven的版本包,建议去官网下载Maven – Maven Releases History (apache.org) 建议下载版本是3.8.8 然后进入settings里的maven界面 将maven home path 设置为你下载的路径: 此时下面的version会改变 随后打开路径中

    2024年02月03日
    浏览(37)
  • IDEA中Spark配置

    scala和spark版本对应关系 :https://blog.csdn.net/qq_34319644/article/details/115555522 这里采用jdk1.8+spark3.0+scala2.12 官网:https://www.scala-lang.org/download/2.12.17.html tar -zxf scala-2.12.17.tgz vim .bashrc source .bashrc 可参考:https://blog.csdn.net/weixin_45490198/article/details/125119932

    2023年04月14日
    浏览(29)
  • IDEA配置Spark运行环境

    在IDEA中添加scala插件 创建maven项目 并添加scala的sdk 前提 :本地已安装Scala 安装Scala插件(在线) Preferences - Plugins - Browse Repositories - 搜索 scala - install 创建Maven工程 File - New - Project… - Maven - Next 引入Scala框架 所在项目(点击右键) - Add Framework Support… -选择 Scala-点击 OK 相关依赖ja

    2024年02月12日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包