Spark大数据处理学习笔记(3.1)掌握RDD的创建

这篇具有很好参考价值的文章主要介绍了Spark大数据处理学习笔记(3.1)掌握RDD的创建。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

文章目录

一、准备工作
1.1 准备文件
1.1.1 准备本地系统文件
在/home目录里创建test.txt

单词用空格分隔

1.1.2 启动HDFS服务
执行命令:start-dfs.sh

1.1.3 上传文件到HDFS
将test.txt上传到HDFS的/park目录里

查看文件内容

1.2 启动Spark Shell
1.2.1 启动Spark服务
执行命令:start-all.sh

1.2.2 启动Spark Shell
执行命令:spark-shell(既可以读取本地文件,也可以读取HDFS文件)

查看Spark Shell的WebUI界面

查看执行器

二、创建RDD
2.1 通过并行集合创建RDD
Spark可以通过并行集合创建RDD。即从一个已经存在的集合、数组上,通过SparkContext对象调用parallelize()或makeRDD()方法创建RDD。
2.1.1 利用parallelize()方法创建RDD
执行命令:val rdd = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8))

执行命令:val rdd = sc.parallelize(Array(100, 300, 200, 600, 500, 900))

说明:不能基于Map、Tuple和Set来创建RDD
2.1.2 利用makeRDD()方法创建RDD
执行命令:val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8))

执行命令:rdd.collect(),收集rdd数据进行显示

思考题:取出rdd中的偶数

2.2 从外部存储创建RDD
2.2.1 从文件系统加载数据创建RDD
执行命令:val rdd = sc.textFile(“file:///home/test.txt”)

注意:访问本地文件,必须加file://前缀,否则系统会认为是访问hdfs://master:9000/home/test.txt,从而会报错。
执行命令:val lines = rdd.collec,查看RDD中的内容,保存到常量lines

执行命令:lines.foreach(println)(利用foreach遍历算子)

课堂练习:给输出数据添加行号
利用for循环来实现

利用foreach遍历算子来实现

2.2.2 从HDFS中加载数据创建RDD
执行命令:val rdd = sc.textFile(“hdfs://master:9000/park/test.txt”)

执行命令:val lines = rdd.collect,查看RDD中的内容

获取包含spark的行,执行命令:val sparkLines = rdd.filter(_.contains(“spark”))

利用遍历算子显示sparkLines内容

三、读取文件的问题
3.1 以集群方式启动Spark Shell
执行命令:spark-shell --master spark://master:7077

3.1.1 读取本地文件
执行命令:val rdd = sc.textFile(“file:///home/test.txt”)

执行命令: rdd.collect,报错 - Input path does not exist: hdfs://master:9000/home/test.txt
结论:集群模式启动的Spark Shell不能读取本地文件
3.1.2 读取HDFS文件
执行命令:val rdd = sc.textFile(“hdfs://master:9000/park/test.txt”)

执行命令:val rdd = sc.textFile(“/park/test.txt”)

结论:默认就是访问HDFS上的文件,因此hdfs://master:9000前缀可以不写
3.2 以本地模式启动Spark Shell
执行命令:spark-shell --master local[*]

3.2.1 读取本地文件
执行命令:val rdd = sc.textFile(“file:///home/test.txt”)

执行命令:val rdd = sc.textFile(“/home/test.txt”)

结论:本地模式启动的Spark Shell,默认读取的依然是HDFS文件,要访问本地文件,必须加file://前缀
3.2.2 访问HDFS文件
执行命令:val rdd = sc.textFile(“hdfs://master:9000/park/test.txt”)

执行命令:val rdd = sc.textFile(“/park/test.txt”)

结论:默认就是访问HDFS文件,因此加不加hdfs://master:9000前缀都是一样的效果文件。文章来源地址https://www.toymoban.com/news/detail-486304.html

到了这里,关于Spark大数据处理学习笔记(3.1)掌握RDD的创建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Spark 大数据实战:基于 RDD 的大数据处理分析

    之前笔者参加了公司内部举办的一个 Big Data Workshop,接触了一些 Spark 的皮毛,后来在工作中陆陆续续又学习了一些 Spark 的实战知识。 本文笔者从小白的视角出发,给大家普及 Spark 的应用知识。 Spark 集群是基于 Apache Spark 的分布式计算环境,用于处理 大规模数据集 的计算任

    2024年01月25日
    浏览(48)
  • Spark大数据处理学习笔记(2.2)搭建Spark Standalone集群

    一、在master虚拟机上安装配置Spark 1.1 将spark安装包上传到master虚拟机 下载Spark:pyw2 进入/opt目录,查看上传的spark安装包 1.2 将spark安装包解压到指定目录 执行命令: tar -zxvf spark-3.3.2-bin-hadoop3.tgz 修改文件名:mv spark-3.3.2-bin-hadoop3 spark-3.3.2 1.3 配置spark环境变量 执行命令:vim

    2024年02月09日
    浏览(52)
  • Spark大数据处理学习笔记(2.4)IDEA开发词频统计项目

    该文章主要为完成实训任务,详细实现过程及结果见【http://t.csdn.cn/0qE1L】 从Scala官网下载Scala2.12.15 - https://www.scala-lang.org/download/2.12.15.html 安装在默认位置 安装完毕 在命令行窗口查看Scala版本(必须要配置环境变量) 启动HDFS服务 启动Spark集群 在master虚拟机上创建单词文件

    2024年02月08日
    浏览(57)
  • Spark大数据处理讲课笔记3.7 Spark任务调度

    理解DAG概念 了解Stage划分 了解RDD在Spark中的运行流程 DAG(Directed Acyclic Graph) 叫做 有向无环图 ,Spark中的RDD通过一系列的转换算子操作和行动算子操作形成了一个DAG。DAG是一种非常重要的图论数据结构。如果一个有向图无法从任意顶点出发经过若干条边回到该点,则这个图就

    2024年02月09日
    浏览(51)
  • Spark大数据处理讲课笔记4.1 Spark SQL概述、数据帧与数据集

      目录 零、本讲学习目标 一、Spark SQL (一)Spark SQL概述 (二)Spark SQL功能 (三)Spark SQL结构 1、Spark SQL架构图 2、Spark SQL三大过程 3、Spark SQL内部五大组件 (四)Spark SQL工作流程 (五)Spark SQL主要特点 1、将SQL查询与Spark应用程序无缝组合 2、Spark SQL以相同方式连接多种数据

    2024年02月09日
    浏览(64)
  • Spark大数据处理讲课笔记4.2 Spark SQL数据源 - 基本操作

      目录 零、本讲学习目标 一、基本操作 二、默认数据源 (一)默认数据源Parquet (二)案例演示读取Parquet文件 1、在Spark Shell中演示 2、通过Scala程序演示 三、手动指定数据源 (一)format()与option()方法概述 (二)案例演示读取不同数据源 1、读取房源csv文件 2、读取json,保

    2024年02月09日
    浏览(44)
  • Spark重温笔记(四):秒级处理庞大数据量的 SparkSQL 操作大全,能否成为你的工作备忘指南?

    前言:今天是温习 Spark 的第 4 天啦!主要梳理了 SparkSQL 工作中常用的操作大全,以及演示了几个企业级案例,希望对大家有帮助! Tips:\\\"分享是快乐的源泉💧,在我的博客里,不仅有知识的海洋🌊,还有满满的正能量加持💪,快来和我一起分享这份快乐吧😊! 喜欢我的博

    2024年04月11日
    浏览(45)
  • spark中Rdd依赖和SparkSQL介绍--学习笔记

    1.1概念 rdd的特性之一 相邻rdd之间存在依赖关系(因果关系) 窄依赖 每个父RDD的一个Partition最多被子RDD的一个Partition所使用 父rdd和子rdd的分区是一对一(多对一) 触发窄依赖的算子 map(),flatMap(),filter() 宽依赖 父RDD的一个partition会被子rdd的多个Partition所使用 父rdd和子rdd的

    2024年01月17日
    浏览(47)
  • Spark中Rdd算子和Action算子--学习笔记

    filter distinct groupBy groupByKey,sortBy,SortByKey rdd之间的连接 collect,take,count()类的聚合算子,saveAsTextFile, 统计算子,countByKey() countByKey().items() countByValue() , countByValue().items() 词频统计 缓存是将数据存储再内存或者磁盘上,缓存的特点是计算结束后缓存自动清空 为什么使用缓存? 提升

    2024年01月16日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包