2023_Spark_实验三:基于IDEA开发Scala例子

这篇具有很好参考价值的文章主要介绍了2023_Spark_实验三:基于IDEA开发Scala例子。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、创建一个空项目,作为整个项目的基本框架

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

二、创建SparkStudy模块,用于学习基本的Spark基础

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

三、创建项目结构

1、在SparkStudy模块下的pom.xml文件中加入对应的依赖,并等待依赖包下载完毕。

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

在pom.xml文件中加入对应的依赖

​

<!-- Spark及Scala的版本号 -->

<properties>

<scala.version>2.11</scala.version>

<spark.version>2.1.1</spark.version>

</properties>

<!-- Mysql组件

<dependency>

<groupId>mysql</groupId>

<artifactId>mysql-connector-java</artifactId>

<version>5.7.22.1</version>

</dependency> 的依赖 -->

<!-- Spark各个组件的依赖 -->

<dependencies>

<!-- https://mvnrepository.com/artifact/com.thoughtworks.paranamer/paranamer -->

<dependency>

<groupId>com.thoughtworks.paranamer</groupId>

<artifactId>paranamer</artifactId>

<version>2.8</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-core_${scala.version}</artifactId>

<version>${spark.version}</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-sql_${scala.version}</artifactId>

<version>${spark.version}</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-streaming_2.11</artifactId>

<version>${spark.version}</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-mllib_2.11</artifactId>

<version>2.1.1</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-streaming-kafka-0-10_2.11</artifactId>

<version>2.3.0</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-streaming-kafka-0-8_${scala.version}</artifactId>

<version>2.3.0</version>

</dependency>

<dependency>

<groupId>net.jpountz.lz4</groupId>

<artifactId>lz4</artifactId>

<version>1.3.0</version>

</dependency>

<dependency>

<groupId>mysql</groupId>

<artifactId>mysql-connector-java</artifactId>

<version>8.0.18</version>

</dependency>

<dependency>

<groupId>org.apache.flume.flume-ng-clients</groupId>

<artifactId>flume-ng-log4jappender</artifactId>

<version>1.7.0</version>

</dependency>

<!-- <dependency>-->

<!-- <groupId>org.apache.spark</groupId>-->

<!-- <artifactId>spark-streaming-flume-sink_2.10</artifactId>-->

<!-- <version>1.5.2</version>-->

<!-- </dependency>-->

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-hive_2.12</artifactId>

<version>2.4.8</version>

</dependency>

</dependencies>

<!-- 配置maven打包插件及打包类型 -->

<build>

<plugins>

<plugin>

<groupId>org.apache.maven.plugins</groupId>

<artifactId>maven-compiler-plugin</artifactId>

<version>3.8.1</version>

<configuration>

<source>1.8</source>

<target>1.8</target>

</configuration>

</plugin>

<plugin>

<groupId>org.apache.maven.plugins</groupId>

<artifactId>maven-assembly-plugin</artifactId>

<configuration>

<descriptorRefs>

<descriptorRef>jar-with-dependencies</descriptorRef>

</descriptorRefs>

</configuration>

</plugin>

</plugins>

</build>


​

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

等待依赖包下载完毕

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2、若不能自动下载依赖包,则按以下步骤操作

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

四、创建SCALA目录

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

四、解决无法创建scala文件问题

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

验证:

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

问题解决!

五、编写第一个SCALA程序

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

2023_Spark_实验三:基于IDEA开发Scala例子,Scala,Spark实验,IDEA,spark,scala,大数据

成功!文章来源地址https://www.toymoban.com/news/detail-685154.html

到了这里,关于2023_Spark_实验三:基于IDEA开发Scala例子的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 2023_Spark_实验八:Scala高级特性实验

    1、什么是泛型类 和Java或者C++一样,类和特质可以带类型参数。在Scala中,使用方括号来定义类型 参数,如下所示: 2、什么是泛型函数 函数和方法也可以带类型参数。和泛型类一样,我们需要把类型参数放在方法名之 后。 注意:这里的ClassTag是必须的,表示运行时的一些信

    2024年02月08日
    浏览(25)
  • 2023_Spark_实验九:Scala函数式编程部分演示

    需求: 1、做某个文件的词频统计//某个单词在这个文件出现次数 步骤: 1、文件单词规律(空格分开) 2、单词切分 3、单词的统计 (k,v)-(k:单词,V:数量) 4、打印 框架: 1、单例对象,main() 2、创建CONF 3、创建SC--读取文件的方式--》RDD 4、RDD进行处理 5、关闭资源 一、新

    2024年02月08日
    浏览(33)
  • 2023_Spark_实验七:Scala函数式编程部分演示

    1、Scala中的函数 在Scala中,函数是“头等公民”,就和数字一样。可以在变量中存放函数,即:将函数作为变量的值(值函数)。 2、匿名函数 3、带函数参数的函数,即:高阶函数 示例1: (*)首先,定义一个最普通的函数 (*)再定义一个高阶函数 (*)分析这个高阶函数

    2024年02月08日
    浏览(44)
  • 用idea工具scala 和 Java开发 spark案例:WordCount

    目录 一 环境准备 二 scala代码编写 三 java 代码编写         创建一个 maven 工程         添加下列依赖         原本就下载过这些依赖的没必要再下一遍,可以用之前的,比如 json,mysql,mysq 这里版本是 mysql 5 ,不一样的注意修改                  首先准备好数据,即

    2024年02月07日
    浏览(36)
  • spark底层为什么选择使用scala语言开发

    基于Scala的语言特性 集成性:Scala 是一种运行在 Java 虚拟机(JVM)上的静态类型编程语言,可以与 Java 代码无缝集成。由于 Spark 涉及到与大量 Java 生态系统的交互,例如 Hadoop、Hive 等,使用 Scala 可以方便地与这些组件进行集成和交互。 函数式编程支持:Scala 是一种面向函数

    2024年02月10日
    浏览(44)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(80)
  • 【五一创作】使用Scala二次开发Spark3.3.0实现对MySQL的upsert操作

    使用Scala二次开发Spark实现对MySQL的upsert操作 在我们的数仓升级项目中,遇到了这样的场景:古人开发的任务是使用DataStage运算后,按照主键【或者多个字段拼接的唯一键】来做 insert then update ,顾名思义,也就是无则插入,有则后一条数据会覆盖前一条。这其实类似于MySQL的

    2024年02月03日
    浏览(29)
  • 认识spark,Scala简介

    Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。 是加州大学伯克利分校AMP实验室(Algorithms, Machines, and People Lab)开发的通用内存并行计算框架Spark得到了众多大数据公司的支持,这些公司包括Hortonworks、IBM、Intel、Cloudera、MapR、Pivotal、百度、阿里、腾讯、京

    2024年03月20日
    浏览(32)
  • spark源码的scala解析

    一、scala抽象类和java的有何不同? 在org/apache/spark/util/collection/SortDataFormat.scala中有以下抽象类 private[spark] abstract class SortDataFormat[K, Buffer] {...}    然后在org/apache/spark/graphx/Edge.scala中,直接调用了xxx = new SortDataFormat[Edge[ED], Array[Edge[ED]]] {...} 为啥可以直接new一个抽象类呢??sc

    2024年02月12日
    浏览(30)
  • spark概述与scala的安装

    1. Spark是什么 Spark  基于内存 式计算的 分布式 的 统一化 的数据分析引擎 2. Spark 模块 Spark 框架模块包含:Spark Core、Spark SQL、Spark Streaming、Spark GraphX、 Spark MLlib,而后四项的能力都是建立在核心引擎之上。 3.Spark 四大特点 Spark使用 Scala 语言进行实现,它是一种面向对象、函

    2024年03月10日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包