Spark大数据分析与实战笔记(第二章 Spark基础-04)

这篇具有很好参考价值的文章主要介绍了Spark大数据分析与实战笔记(第二章 Spark基础-04)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

每日一句正能量

“春风十里,不如你。”
这句来自现代作家安妮宝贝的经典句子,它表达了对他人的赞美与崇拜。每个人都有着不同的闪光点和特长,在这个世界上,不必去羡慕别人的光芒,自己所拥有的价值是独一无二的。每个人都有无限的潜力和能力,只要勇敢展现自己,就能在人生舞台上绽放光彩。每天鼓励自己,相信自己,发挥自己的优点和才能,你就能成为那道独特的风景,给世界带来不一样的美好。

引言

Spark是一个用于大规模数据处理的高性能分布式计算框架。它提供了一个简单易用的编程模型和丰富的API,可以帮助我们在分布式环境中快速地进行数据处理和分析。

在开始编写自己的Spark程序之前,我们可以先尝试运行Spark官方提供的示例程序来熟悉Spark的基本用法和工作原理。

其中一个经典的官方示例是SparkPi,它通过随机生成的点来估算圆周率π的值。我们可以通过这个程序来了解如何使用Spark进行并行计算和分布式数据处理。

接下来,我们将一步步地体验运行Spark官方示例SparkPi,并观察它在分布式集群上的运行效果。通过这个过程,我们可以更好地理解Spark的运行机制和优势,为编写自己的Spark程序打下良好的基础。让我们开始吧!

章节概要

Spark是一个快速、通用、可扩展的大数据处理引擎,具有高效的内存计算能力和丰富的数据处理功能。在大数据领域中,Spark已经成为一个重要的工具和平台,被广泛应用于数据分析、机器学习、图计算等多个领域。

了解Spark的运行架构和原理,对于高效地使用和优化Spark程序非常重要。Spark的运行架构和原理涉及到数据处理模型、任务调度机制、资源管理策略等多个方面的知识。理解这些知识可以帮助我们更好地理解Spark的工作原理,从而合理地配置和管理计算资源,设计和优化Spark程序。

本章节将深入探讨Spark的运行架构与原理。首先,我们将介绍Spark的基本概念和特点,以及Spark的集群模式和运行模式。然后,我们将详细解析Spark的执行引擎Spark Core,包括其任务划分与调度机制。接着,我们将介绍Spark的数据抽象模块RDD和DataFrame/Dataset,并分析其在数据处理中的作用和原理。此外,本章节还将对Spark的资源管理器和任务调度器进行详细讨论,包括Cluster Manager和DAG调度器的工作原理和实现方式。最后,我们将通过实际的运行架构实例分析,具体了解Spark在不同的集群模式下的运行架构和工作流程。

通过学习本章节内容,读者将能够全面了解Spark的运行架构与原理,掌握Spark程序的设计和优化方法。无论是初学者还是有一定经验的开发者,通过深入学习Spark的运行架构与原理,都能够更好地利用Spark处理大数据任务,并开发出高效、可扩展的Spark应用程序。

2.4 体验第一个Spark程序

2.4.1 运行Spark官方示例SparkPi

Spark集群已经部署完毕,接下来我们使用Spark官方示例SparkPi,体验Spark集群提交任务的流程。首先进入spark目录,执行命令如下。

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop01:7077 \
--executor-memory 1G \
--total-executor-cores 1 \
examples/jars/spark-examples_2.11-2.3.2.jar \
10

上述命令参数表示含义如下:

  • 1、–master spark://hadoop01:7077:指定Master的地址是hadoop01节点
  • 2、–executor-memory1G:指定每个executor的可用内存为1G
  • 3、–total-executor-cores 1:指定每个executor使用的CPU核心数为1个

按【回车键】提交Spark作业后,观察Spark集群管理界面,其中“Running Applications”列表表示当前Spark集群正在计算的作业,执行几秒后,刷新界面,在Completed Applications表单下,可以看到当前应用执行完毕,返回控制台查看输出信息,出现了“Pi is roughly 3.140691140691141”,说明Pi值已经被计算完毕。,如下图所示。
Spark大数据分析与实战笔记(第二章 Spark基础-04),# Spark大数据分析与实战,spark,笔记,大数据
Spark大数据分析与实战笔记(第二章 Spark基础-04),# Spark大数据分析与实战,spark,笔记,大数据
计算出来的结果准确是由参数(命令中最后的10)决定的,这个参数越大,准确度超高。

在高可用模式提交任务时,可能涉及多个Master,在提交任务时,需要让SparkContext指向一个Master列表 ,执行提交任务的命令如下。

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop01:7077,hadoop02:7077,hadoop03:7077 \
--executor-memory 1G \
--total-executor-cores 1 \
examples/jars/spark-examples_2.11-2.3.2.jar \
10

总结

在体验第一个Spark程序之前,确保已经安装好了Spark,并且配置环境变量和启动Spark集群。

首先,在终端中输入以下命令启动Spark集群:

sbin/start-all.sh

接着,创建一个新的Spark应用程序,命名为SparkPi,并在该应用程序中编写代码计算Pi的近似值。

import org.apache.spark.{SparkConf, SparkContext}

object SparkPi {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("SparkPi")
    val sc = new SparkContext(conf)

    val slices = if (args.length > 0) args(0).toInt else 2
    val n = 100000 * slices
    val count = sc.parallelize(1 to n, slices).map { i =>
      val x = Math.random() * 2 - 1
      val y = Math.random() * 2 - 1
      if (x * x + y * y <= 1) 1 else 0
    }.reduce(_ + _)

    println("Pi is roughly " + 4.0 * count / n)

    sc.stop()
  }
}

代码解释:

  1. 创建SparkConf对象,设置应用程序的名称为"SparkPi"。
  2. 使用SparkConf创建SparkContext对象,该对象将作为Spark应用程序的入口点。
  3. 通过命令行参数获取切片的数量(默认为2),计算需要生成的随机点的总数。
  4. 使用parallelize方法创建一个RDD,该RDD包含了1到n的数字,并指定了切片的数量。
  5. 对每个数字进行映射操作,生成一个随机点,并判断该点是否在圆内。
  6. 对所有随机点的结果进行reduce操作,得到圆内点的数量。
  7. 根据公式计算Pi的近似值。
  8. 打印结果并停止SparkContext。

保存代码到一个文件中,例如"SparkPi.scala"。

接下来,在终端中输入以下命令来编译和打包程序:

$SPARK_HOME/bin/spark-submit --class SparkPi --master spark://<master-url> SparkPi.jar

其中,"“是Spark集群的URL,例如"spark://localhost:7077”。

程序会开始运行,输出Pi的近似值。

最后,可以在Spark集群的Web界面上查看运行日志和结果。

通过体验第一个Spark程序,我们了解了Spark应用程序的基本结构和运行方式。可以进一步学习和探索更复杂的Spark程序,以及使用Spark的其他功能和API。

转载自:https://blog.csdn.net/u014727709/article/details/132240278
欢迎 👍点赞✍评论⭐收藏,欢迎指正文章来源地址https://www.toymoban.com/news/detail-777384.html

到了这里,关于Spark大数据分析与实战笔记(第二章 Spark基础-04)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • NanoEdge AI Studio 教程 第二章--异常数据分析

    NanoEdge AI Studio 教程 第二章--异常数据分析

    OK,好久不见,各位,最近挺忙,欢迎回来。 让我们开始第二章节,异常判断。 目录 一 Nano Edge AI Studio 简单概述 二 异常判断 1.工程选择 2.进行工程设置 2.1 MCU选择 2.2 数据设定 3.输入数据 4.模型训练 5.验证 6.生成模型 7.布置模型 NanoEdge AI Studio主要可以实现的功能主要分为四

    2024年04月17日
    浏览(11)
  • 从零开始学数据分析之——《线性代数》第二章 矩阵

    从零开始学数据分析之——《线性代数》第二章 矩阵

    元素全为实数的矩阵称为实矩阵  元素全为负数的矩阵称为复矩阵 只有一行(列)的矩阵称为行(列)矩阵 元素全为零的矩阵称为零矩阵 行数和列数都等于n的矩阵称为n阶矩阵或n阶方阵 主对角线元素全为1,其余元素全为0的矩阵称为单位矩阵,记作E或I 两个矩阵行数和列数

    2023年04月23日
    浏览(16)
  • Spark大数据分析与实战笔记(第三章 Spark RDD 弹性分布式数据集-02)

    Spark大数据分析与实战笔记(第三章 Spark RDD 弹性分布式数据集-02)

    人生很长,不必慌张。你未长大,我要担当。 传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大缺点是采用非循环式的数据流模型,使得在迭代计算式要进行大量的磁盘IO操作。Spark中的RDD可以很好的解决这一缺点。 RDD是Spark提供的最重要的抽象概念

    2024年02月22日
    浏览(149)
  • Spark大数据分析与实战笔记(第一章 Scala语言基础-1)

    Spark大数据分析与实战笔记(第一章 Scala语言基础-1)

    Spark是专为大规模数据处理而设计的快速通用的计算引擎,它是由Scala语言开发实现的,关于大数据技术,本身就是计算数据,而Scala既有面向对象组织项目工程的能力,又具备计算数据的功能,同时Spark和Scala的紧密集成,本书将采用Scala语言开发Spark程序,所以学好Scala将有助

    2024年02月11日
    浏览(41)
  • Spark大数据分析与实战笔记(第一章 Scala语言基础-3)

    Spark大数据分析与实战笔记(第一章 Scala语言基础-3)

    对于每一门编程语言来说,数组(Array)都是重要的数据结构之一,主要用来存储数据类型相同的元素。Scala中的数组分为定长数组和变长数组,定义定长数组,需要使用new,而定义变长数组时,则需要导包 import scala.collection.mutable.ArrayBuffer 。 数组(Array)主要用来存储

    2024年02月10日
    浏览(36)
  • Spark大数据分析与实战笔记(第一章 Scala语言基础-2)

    Spark大数据分析与实战笔记(第一章 Scala语言基础-2)

    Spark是专为大规模数据处理而设计的快速通用的计算引擎,它是由Scala语言开发实现的,关于大数据技术,本身就是计算数据,而Scala既有面向对象组织项目工程的能力,又具备计算数据的功能,同时Spark和Scala的紧密集成,本书将采用Scala语言开发Spark程序,所以学好Scala将有助

    2024年02月11日
    浏览(40)
  • Spark大数据分析与实战课后答案

    一、填空题 1、Scala语言的特性包含 面向对象编程 、函数式编程的、 静态类型的 、可扩展的、 可以交互操作的 。 2、在Scala数据类型层级结构的底部有两个数据类型,分别是 Nothing 和 Null 。 3、在Scala中,声明变量的有 var 声明变量和 val 声明常量。 4、在Scala中,获取

    2024年01月17日
    浏览(38)
  • 企业Spark案例--酒店数据分析实战提交

    第1关:数据清洗--过滤字段长度不足的且将出生日期转: package com.yy   import org.apache.spark.rdd.RDD import org.apache.spark.sql.{DataFrame, Dataset, SparkSession} object edu{     /**********Begin**********/     // 此处可填写相关代码     case class Person(id:String,Name:String,CtfTp:String,CtfId:String,G

    2024年02月09日
    浏览(39)
  • Spark大数据分析与实战课后习题参考答案

    项目一: 一、选择题 DCCDAD 二、简答题 1、Hadoop MapReduce要求每个步骤间的数据序列化到磁盘,所以I/O成本很高,导致交互分析和迭代算法开销很大;Spark 提供了内存计算,把中间结果放到内存中,带来了更高的迭代运算效率。通过支持有向无环图(DAG)的分布式并行计算的编

    2024年02月11日
    浏览(10)
  • 大数据实战(hadoop+spark+python):淘宝电商数据分析

    大数据实战(hadoop+spark+python):淘宝电商数据分析

    虚拟机:Ubuntu 20.04.6 LTS docker容器 hadoop-3.3.4 spark-3.3.2-bin-hadoop3 python,pyspark, pandas,matplotlib mysql,mysql-connector-j-8.0.32.jar(下载不需要积分什么的) 淘宝用户数据 以上的技术积累需要自行完成 创建容器(##ubuntu的代码块,在ubuntu中运行,无特殊说明的在docker中运行) 更新软件

    2024年02月11日
    浏览(15)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包