pycharm连接spark

这篇具有很好参考价值的文章主要介绍了pycharm连接spark。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.解压Hadoop,解压到任意盘,路径不要带中文路径 

pycharm连接spark

 进入保存后的bin目录,查看,是否解压成功

2.解压spark,到任意位置,路径不要带有中文

pycharm连接spark

 3. 打开pycharm,把Hadoop,spark环境变量配置到pycharm中。

3.1新建项目

pycharm连接spark

 pycharm连接spark

 3.2在项目中创建一个python文件

pycharm连接spark

 pycharm连接spark

 3.3把Hadoop_home,python_home,pythonpath添加到Pycharm中.

 pycharm连接spark

 pycharm连接spark

pycharm连接spark

1.HADOOP_HOME

2.SPARK_HOME

3.PYTHONPATH

4.注意!!!

PYTHONPATH路径要添加到D:\spark\spark-2.4.6-bin-hadoop2.7\python\lib\py4j-0.10.7-src.zip下

pycharm连接spark

pycharm连接spark

pycharm连接spark

 3.4 检查是否有以下软件包

pycharm连接spark

3.4.1 如果没有请按照以下教程下载,后期需要

pycharm连接spark

pycharm连接spark

 3.4.2安装py4jpycharm连接spark

 3.4.3安装pyspark推荐2.4.6版本

 

pycharm连接spark

 3.4.4安装pip

pycharm连接spark

3.5安装findspark

pycharm连接spark

 4.把winutils.exe插件放到Hadoop解压后的/bin目录下面

pycharm连接spark

 5.把以下代码,复制到4.2步骤中,新建的python文件中

#添加此代码
import findspark
findspark.init()
#在spark前,添加此代码
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("WordCount").getOrCreate()
spark.sparkContext.textFile("file:///D:/Hadoop/hadoop-2.7.7/README.txt")\
        .flatMap(lambda x: x.split(' '))\
        .map(lambda x: (x, 1))\
        .reduceByKey(lambda x, y: x + y)\
        .foreach(print)

5.1必须要有这句话在spark前面!!!

pycharm连接spark

 6.测试

pycharm连接spark

 pycharm连接spark文章来源地址https://www.toymoban.com/news/detail-417969.html

出现以上内容,表示pycharm连接spark成功。

到了这里,关于pycharm连接spark的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 修复路径遍历或任意文件下载漏洞

    一、问题描述         路径遍历是指应用程序接收了未经合理校验的用户参数用于进行与文件读取查看相关操作,而该参数包含了特殊的字符(例如“..”和“/”),使用了这类特殊字符可以摆脱受保护的限制,越权访问一些受保护的文件、目录或者覆盖敏感数据。   

    2024年02月13日
    浏览(48)
  • 【高危】Apache Airflow Spark Provider 任意文件读取漏洞 (CVE-2023-40272)

    Apache Airflow Spark Provider是Apache Airflow项目的一个插件,用于在Airflow中管理和调度Apache Spark作业。 受影响版本中,在JDBC连接时,由于没有对conn_prefix参数做验证,允许输入\\\"?\\\"来指定参数。攻击者可以通过构造参数?allowLoadLocalInfile=true连接攻击者控制的恶意mysql服务器,读取Airfl

    2024年02月11日
    浏览(41)
  • Hadoop(伪分布式)+Spark(local模式)搭建Hadoop和Spark组合环境

    环境 使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04,Ubuntu16.04 也行,32位、64位均可),请自行安装系统。 Hadoop版本 : Hadoop 2.7.4 创建hadoop用户 如果你安装 Ubuntu 的时候不是用的 \\\"hadoop\\\" 用户,那么需要增加一个名为 hadoop 的用户。 首先按 ctrl+alt+t 打开终端窗口,输入如下命令创

    2023年04月08日
    浏览(70)
  • Docker下安装Hadoop和Spark集群_docker 中安装hadoop和spark

    先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7 深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前! 因此收集整理了一份《2024年最新软件测试全套学习资料》

    2024年04月27日
    浏览(39)
  • 【漏洞复现】Ruby on Rails 路径穿越与任意文件读取漏洞(CVE-2019-5418)

    1. 漏洞简介 Ruby on Rails使用了指定参数的render file来渲染应用之外的视图,且会根据用户传入的Accept头来确定文件具体位置。我们可以通过修改访问某控制器的请求包,通过…/…/…/…/来达到路径穿越的目的,然后再通过{{来闭合模板查询路径,那我们访问的文件会被当做外部

    2024年02月04日
    浏览(59)
  • [Spark、hadoop]Spark Streaming整合kafka实战

    目录 一.KafkaUtils.createDstream方式 二.KafkaUtils.createDirectStream方式  温习 Kafka是由Apache软件基金会开发的一个开源流处理平台,它使用Scala和Java语言编写,是一个基于Zookeeper系统的分布式发布订阅消息系统,该项目的设计初衷是为实时数据提供一个统一、高通量、低等待的消息

    2024年01月21日
    浏览(51)
  • Spark编程实验一:Spark和Hadoop的安装使用

    目录 一、目的与要求 二、实验内容 三、实验步骤 1、安装Hadoop和Spark 2、HDFS常用操作 3、Spark读取文件系统的数据 四、结果分析与实验体会 1、掌握在Linux虚拟机中安装Hadoop和Spark的方法; 2、熟悉HDFS的基本使用方法; 3、掌握使用Spark访问本地文件和HDFS文件的方法。 1、安装

    2024年04月14日
    浏览(34)
  • spark hadoop

    Hadoop是一个分布式系统基础架构,具备可靠、高效、可伸缩等特点。它的核心设计是HDFS、MapReduce。 HDFS是整个hadoop体系的基础,负责数据的存储与管理。HDFS有着高容错性(fault-tolerant)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughp

    2024年04月17日
    浏览(31)
  • Spark读取HDFS路径文件

    有些时候我们希望直接读取HDFS上的文件进行处理,那么我们可以使用 textFile 这个方法,这个方法可以将指定路径的文件将其读出,然后转化为Spark中的RDD数据类型。 textFile 是 Spark 中的一个函数,用于从文本文件中读取数据并创建一个 RDD。它可以用于加载文本数据,并将每行

    2024年02月05日
    浏览(57)
  • Hadoop和Spark的区别

    表达能力有限。 磁盘IO开销大,延迟度高。 任务和任务之间的衔接涉及IO开销。 前一个任务完成之前其他任务无法完成,难以胜任复杂、多阶段的计算任务。 Spark模型是对Mapreduce模型的改进,可以说没有HDFS、Mapreduce就没有Spark。 Spark可以使用Yarn作为他的资源管理器,并且可

    2024年02月03日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包