2023_Spark_实验一:Windows中基础环境安装

这篇具有很好参考价值的文章主要介绍了2023_Spark_实验一:Windows中基础环境安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Ⅰ、WINDOWS中安装JDK1.8

一、下载安装包

链接:百度网盘 请输入提取码

所在文件夹:根目录或者大数据必备工具--》开发工具(前端+后端)--》后端

下载文件名称:jdk-8u191-windows-x64.exe

二、安装JDK

1.现在转到下载的exe文件可用的文件夹,右键单击该文件并以管理员身份运行。将出现一个小窗口,单击是,安装将开始。

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

2.安装完成后,会出现一个新的 Java 安装向导,点击下一步。

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

3.之后你会被要求选择安装文件夹,这里我们将使用默认安装文件夹,所以点击下一步。

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

4.将出现一个进度条显示安装进度,一旦完成,屏幕上将出现“ Java(TM) SE Development Kit installed ”,然后单击关闭按钮。

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

5.要检查JDK是否安装正确,请按Windows按钮打开命令提示符,键入“ cmd ”并按Enter。

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

6.在命令提示符下输入“ java –version ”并回车查看安装的JDK版本。

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

现在您已经成功在 Windows 10 中安装了 JDK。

二、安装SCALA

一、下载安装包

链接:百度网盘 请输入提取码

进入目录: 大数据必备工具>spark安装包

下载文件名称:scala-2.11.8.msi、scala-2.11.8.zip

选scala-2.11.8.msi 点击安装一键到底即可

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

三、scala-2.11.8.zip安装

1.先将scala-2.11.8.zip解压为文件夹

我选择是解压到了E盘的scalal文件夹下面

E:\scalal\scala-2.11.8

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

2.配置windows系统的环境变量

(windows操作系统)

打开控制面板--->点击系统--->点击左下角的关于--->点击相关设置的高级系统设置--->

右下角的环境变量--->系统变量

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

3.设置3个系统变量

注意:在设置环境变量值的时候,要以分号间隔,SCALA_HOME最好是大写

(1)设置SCALA_HOME,列表有SCALA_HOME的直接点击编辑

E:\scalal\scala-2.11.8(我是将scala-2.11.8.zip解压到E盘的scalal文件中)

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

(1)设置classpath,列表有classpath的直接点击编辑

E:\scalal\scala-2.11.8\bin;

E:\scalal\scala-2.11.8\bin;(这个根据你scala-2.11.8所解压的文件的文件夹而定,为你所解压的目录下的bin目录)

列表中没有classpath,可直接新建一个classpath系统变量,再安装上面步骤

(2)设置path,列表有path的直接点击编辑

%SCALA_HOME%\;

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

4.配置好环境变量后,进行验证是否安装成功

windows徽标+R  输入cmd 进入命令提示符

(1)输入scala直接进入编写界面

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

(2)输入scala -version查看scala是否安装成功

2023_Spark_实验一:Windows中基础环境安装,Java,Scala,Spark实验,scala,java

注意:以上两个任意输入一个出现与图片相同的命令,都表示scala安装成功

5.scala在windows上安装完毕文章来源地址https://www.toymoban.com/news/detail-687737.html

到了这里,关于2023_Spark_实验一:Windows中基础环境安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 2023_Spark_实验九:Scala函数式编程部分演示

    需求: 1、做某个文件的词频统计//某个单词在这个文件出现次数 步骤: 1、文件单词规律(空格分开) 2、单词切分 3、单词的统计 (k,v)-(k:单词,V:数量) 4、打印 框架: 1、单例对象,main() 2、创建CONF 3、创建SC--读取文件的方式--》RDD 4、RDD进行处理 5、关闭资源 一、新

    2024年02月08日
    浏览(35)
  • 2023_Spark_实验五:Scala面向对象部分演示(一)(IDEA开发)

    1、面向对象的基本概念 把数据及对数据的操作方法放在一起,作为一个相互依存的整体——对象,面向 对象的三大特征:  封装  继承  多态 2、类的定义 简单类和无参方法 如果要开发main方法,需要将main方法定义在该类的伴生对象中,即:object对 象中,(后续做详细的讨

    2024年02月10日
    浏览(34)
  • 2023_Spark_实验六:Scala面向对象部分演示(二)(IDEA开发)

    7、Scala中的apply方法() 遇到如下形式的表达式时,apply方法就会被调用: Object(参数1,参数2,......,参数N) 通常,这样一个apply方法返回的是伴生类的对象;其作用是为了省略new Object的apply方法举例: 8、Scala中的继承 Scala和Java一样,使用extends扩展类。 案例一:

    2024年02月10日
    浏览(41)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(80)
  • 构建大数据环境:Hadoop、MySQL、Hive、Scala和Spark的安装与配置

    在当今的数据驱动时代,构建一个强大的大数据环境对于企业和组织来说至关重要。本文将介绍如何安装和配置Hadoop、MySQL、Hive、Scala和Spark,以搭建一个完整的大数据环境。 安装Hadoop 首先,从Apache Hadoop的官方网站下载所需的Hadoop发行版。选择适合你系统的二进制发行版,下

    2024年02月11日
    浏览(41)
  • 2023_Spark_实验十:RDD基础算子操作

    Ø练习 1: Ø 练习 2: Ø 练习 3: Ø 练习 4: Ø 练习 5: groupByKey groupByKey会将RDD[key,value]按照相同的key进行分组,形成RDD[key,iterable[value]]的形式,有点类似于sql中的groupby,例如类似于mysql中的group_contact cogroup groupByKey是对单个RDD的数据进行分组,还可以使用一个叫作cogroup()的函

    2024年02月08日
    浏览(38)
  • 2023_Spark_实验二:IDEA安装及配置

    一、下载安装包 链接:百度网盘 请输入提取码 所在文件夹:大数据必备工具--》开发工具(前端+后端)--》后端 下载文件名称:ideaIU-2019.2.3.exe (喜欢新版本也可安装新版本,新旧版本会存在部分差异) IDEA 安装 第一步,双击 ideaIU-2019.2.3.exe 安装包,出现如下页面,点击图中

    2024年02月10日
    浏览(42)
  • 云计算技术 实验九 Spark的安装和基础编程

    1 . 实验学时 4学时 2 . 实验目的 熟悉Spark Shell。 编写Spark的独立的应用程序。 3 . 实验内容 (一)完成Spark的安装,熟悉Spark Shell。 首先安装spark: 将下好的压缩文件传入linux,然后进行压解: 之后移动文件,修改文件权限: 然后是配置相关的文件: Vim进入进行修改: 然后是

    2024年02月05日
    浏览(38)
  • 《Spark编程基础Scala版》第一章习题答案

    1、请阐述大数据处理的基本流程。 2、请阐述大数据的计算模式及其代表产品 3、请列举Hadoop生态系统的各个组件及其功能。 4、分布式文件系统HDFS的名称节点和数据节点的功能分别是什么? 名称节点: 数据节点: 5、试阐述MapReduce的基本设计思想 6、YARN的主要功能是什么?

    2024年02月06日
    浏览(56)
  • spark概述与scala的安装

    1. Spark是什么 Spark  基于内存 式计算的 分布式 的 统一化 的数据分析引擎 2. Spark 模块 Spark 框架模块包含:Spark Core、Spark SQL、Spark Streaming、Spark GraphX、 Spark MLlib,而后四项的能力都是建立在核心引擎之上。 3.Spark 四大特点 Spark使用 Scala 语言进行实现,它是一种面向对象、函

    2024年03月10日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包