2023_Spark_实验八:Scala高级特性实验

这篇具有很好参考价值的文章主要介绍了2023_Spark_实验八:Scala高级特性实验。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、什么是泛型类

和Java或者C++一样,类和特质可以带类型参数。在Scala中,使用方括号来定义类型

参数,如下所示:


/*

这里的T就是泛类型,可以代表任意类型,_表示可以是任意类型

*/

class GenericClass[T] {



//定义一个变量

private var content:T= _

//定义变量的get和set方法

def set(value:T)={content=value}

def get():T={content}

}

//测试

object GenericClass {

def main(args: Array[String]): Unit = {

//定义一个Int整数类型的泛型类对象

var intGeneric = new GenericClass[Int]

intGeneric.set(123)

println("得到的是:"+intGeneric.get())

//定义一个String类型的泛型类对象

var stringGeneric = new GenericClass[String]

stringGeneric.set("Hello Scala")

println("得到的值是:"+ stringGeneric.get() )

}

}

2、什么是泛型函数

函数和方法也可以带类型参数。和泛型类一样,我们需要把类型参数放在方法名之

后。

注意:这里的ClassTag是必须的,表示运行时的一些信息,比如类型。


import scala.reflect.{ClassTag, classTag}



//创建一个函数,可以创建一个Int类型的数值



def mkIntArray(elems:Int*) = Array[Int](elems:_*)

mkIntArray(1,2,3,100)



//创建一个函数,可以创建一个String类型的数值



def mkStringArray(elems:String*) = Array[String](elems:_*)

mkStringArray("Mike","Tom","Mary")



//问题:能否创建一个函数mkArray,创建Int类型的数组,也是String类型的数组?







def mkArray[T:ClassTag](elems:T*) = Array[T](elems:_*)

mkArray(1,2,3,5,8)

mkArray("Tom","Mary")

3、隐式转换函数

所谓隐式转换函数指的是以implicit关键字声明的带有单个参数的函数。

前面讲视图界定时候的一个例子:

2023_Spark_实验八:Scala高级特性实验,Scala,spark,scala,大数据

4、隐式参数

使用implicit申明的函数参数叫做隐式参数。我们也可以使用隐式参数实现隐式的转


//Scala隐式参数

def testParam (implicit name :String) = {println("The value is " + name)}



//定义一个隐式参数

implicit val name:String="这是一个隐式值"



testParam



def smaller[T](a:T,b:T)(implicit order:T => Ordered[T]) =if(a<b) a else b

smaller(100,23)

smaller("Hello","ABC")

5、隐式类

所谓隐式类: 就是对类增加implicit 限定的类,其作用主要是对类的功能加强!文章来源地址https://www.toymoban.com/news/detail-721433.html


/*

*Scala 的隐式类

*/

object ImplicitClass {



//隐式类

implicit class Calc(x: Int) {

def add(a: Int): Int = a * x

}


def main(args: Array[String]): Unit = {

println("两个数字的和 " + 1.add(2))

}

}



/*

隐式类执行的过程

1.当1.add(2),scala 的编译器不会立即报错,在当前域当中查询,有没有implicit修饰的

同时可以将Int 作为参数的构造器,

并且具有add方法的类,通过查询,找到Calc

2.利用应式类Calc来执行add方法

*/

到了这里,关于2023_Spark_实验八:Scala高级特性实验的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 2023_Spark_实验六:Scala面向对象部分演示(二)(IDEA开发)

    7、Scala中的apply方法() 遇到如下形式的表达式时,apply方法就会被调用: Object(参数1,参数2,......,参数N) 通常,这样一个apply方法返回的是伴生类的对象;其作用是为了省略new Object的apply方法举例: 8、Scala中的继承 Scala和Java一样,使用extends扩展类。 案例一:

    2024年02月10日
    浏览(53)
  • 2023_Spark_实验五:Scala面向对象部分演示(一)(IDEA开发)

    1、面向对象的基本概念 把数据及对数据的操作方法放在一起,作为一个相互依存的整体——对象,面向 对象的三大特征:  封装  继承  多态 2、类的定义 简单类和无参方法 如果要开发main方法,需要将main方法定义在该类的伴生对象中,即:object对 象中,(后续做详细的讨

    2024年02月10日
    浏览(41)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(89)
  • Spark Scala大数据编程实例

    Scala是一门现代的多范式编程语言,平滑地集成了面向对象和函数式语言的特性,旨在以简练、优雅的方式来表达常用编程模式。Scala的设计吸收借鉴了许多种编程语言的思想,只有很少量特点是Scala自己独有的。Scala语言的名称来自于“可伸展的语言”,从写个小脚本到建立

    2024年02月04日
    浏览(50)
  • Spark 读写 es 数据(scala 版)

    读取 hdfs 文件 解析采用 fast-json : 1、 pom.xml 2、 main 文件 运行结果: 1、 pom.xml 2、 main 文件 参考文章 Spark读写ES数据时遇到的问题总结 Spark读写ES 使用Apache Spark将数据写入ElasticSearch

    2024年02月11日
    浏览(42)
  • 简单使用Spark、Scala完成对天气数据的指标统计

    目录 一、前言   什么是Spark?   什么是Scala 二、数据准备(数据类型的转换) 三、Spark部分 1、使用Spark完成数据中的“风级”,“风向”、“天气情况”相关指标统计及筛选 四、Scala部分 1、使用Scala统计某月、全年的温差、平均气温以及最值等相关的指标 五、遇到的问题

    2024年02月03日
    浏览(50)
  • 大数据Spark SparkSession的3种创建方式 Scala语言实现

    SparkSession是Apache Spark 2.0版本引入的一个编程接口,用于与Spark进行交互。它是Spark应用程序的入口点,提供了一种方便的方式来创建DataFrame、DataSet和SQLContext等数据结构,并且可以配置各种Spark应用程序的选项。SparkSession还管理了Spark应用程序的运行环境,包括Spark集群的连接,

    2023年04月20日
    浏览(38)
  • Spark大数据分析与实战笔记(第一章 Scala语言基础-2)

    Spark是专为大规模数据处理而设计的快速通用的计算引擎,它是由Scala语言开发实现的,关于大数据技术,本身就是计算数据,而Scala既有面向对象组织项目工程的能力,又具备计算数据的功能,同时Spark和Scala的紧密集成,本书将采用Scala语言开发Spark程序,所以学好Scala将有助

    2024年02月11日
    浏览(62)
  • Spark大数据分析与实战笔记(第一章 Scala语言基础-3)

    对于每一门编程语言来说,数组(Array)都是重要的数据结构之一,主要用来存储数据类型相同的元素。Scala中的数组分为定长数组和变长数组,定义定长数组,需要使用new,而定义变长数组时,则需要导包 import scala.collection.mutable.ArrayBuffer 。 数组(Array)主要用来存储

    2024年02月10日
    浏览(64)
  • Spark大数据分析与实战笔记(第一章 Scala语言基础-1)

    Spark是专为大规模数据处理而设计的快速通用的计算引擎,它是由Scala语言开发实现的,关于大数据技术,本身就是计算数据,而Scala既有面向对象组织项目工程的能力,又具备计算数据的功能,同时Spark和Scala的紧密集成,本书将采用Scala语言开发Spark程序,所以学好Scala将有助

    2024年02月11日
    浏览(67)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包