文章作者邮箱:yugongshiye@sina.cn 地址:广东惠州
▲ 本章节目的
⚪ 掌握Spark的通过api使用SparkSQL;
一、通过api使用SparkSQL
1. 实现步骤
1. 打开scala IDE开发环境,创建一个scala工程。
2. 导入spark相关依赖jar包。
3. 创建包路径以object类。
4. 写代码。
5)打jar包,并上传到linux虚拟机上
6)在spark的bin目录下
执行:sh spark-submit --class cn.tedu.sparksql.Demo01 ./sqlDemo01.jar
7)最后检验文章来源:https://www.toymoban.com/news/detail-695723.html
2. 代码示例
package cn.tedu.sparksql文章来源地址https://www.toymoban.com/news/detail-695723.html
到了这里,关于大数据课程K22——Spark的SparkSQL的API调用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!