ubuntu下Hadoop以及Spark的伪分布式安装:一

这篇具有很好参考价值的文章主要介绍了ubuntu下Hadoop以及Spark的伪分布式安装:一。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 准备安装之前:

1.1 安装前说明:

很多初学者在安装的时候会碰到各种各样的问题,尤其各种版本的搭配问题。所以特意做一个初步安装的引导,希望大家都能一次调试出来。

经过测试,jdk11 + scala2.13.13 + hadoop3.3.6+spark3.5.1,这是暂时来说scalsa2能支持的最完美的搭配。Hadoop能支持到的java最完美的最后版本为jdk11,后面的版本也可以使用,但是java 11后面的版本去掉了javax.activation,导致无法浏览服务端的文件夹以及文件。

 1.2 安装顺序:

  1. 安装JDK(无需安装Jre,安装也没有影响)
  2. 安装Scala
  3. 安装ssh,并设置免密登录
  4. 安装Hadoop
  5. 配置YARN
  6. 安装Spark

2 安装前准备:

2.1 更新系统,确保ubuntu为最新版

sudo apt update

sudo apt upgrade

注:

  1. 旧版使用apt-get命令,新版也可以使用;
  2. 所有的默认安装目录都在/usr/local下;
  3. 下面凡是出现localhost的地方,都可以用具体ip地址或主机名替代。

2.2 为安装Hadoop做准备

2.2.1建立hadoop用户,并给出默认shell

sudo useradd -m hadoop -s /bin/bash

#等效命令

adduser hadoop

passwd hadoop

2.2.2 修改hadoop密码:

sudo passwd hadoop

2.2.3 增加hadoop用户的管理员权限

sudo adduser hadoop sudo

#下面是给hadoop赋予root权限

sudo nano /etc/sudoers

如果使用root为hadoop的默认用户,则使用root登录然后开始安装即可。

但是后续需要修改些东西,比如修改ssh的root登录问题(ubuntu下适用)

2.3 如果已经安装了新版本java,可以先彻底删除掉

删除java的过程:

2.3.1 查看是否安装了java

$ java -version

openjdk version "11.0.10" 2024-01-16

OpenJDK Runtime Environment (build 17.0.10+7-Ubuntu-122.04.1)

OpenJDK 64-Bit Server VM (build 17.0.10+7-Ubuntu-122.04.1, mixed mode, sharing)

#或者

update-alternatives --list java

#或者

type -p java

2.3.2 查找jdk安装包,包括jdk和jre

dpkg -l | grep -i jdk

#或者

dpkg -L openjdk-11-jdk

2.3.3 删除所有老版java

sudo apt --purge remove openjdk-11-jdk

sudo apt --purge remove openjdk-11-jdk-headless

sudo apt --purge remove openjdk-11-jre

sudo apt --purge remove openjdk-11-jre-headless

2.3.4 删除残余的java文件及文件夹

sudo rm -rf /usr/lib/jvm/*

2.3.5 查看环境变量中是否存在java

vim /etc/environment

3 安装JDK

3.1 安装JAVA

sudo apt-get install openjdk-11-jre openjdk-11-jdk

或者

sudo apt install openjdk-11-jre openjdk-11-jdk

3.2 配置JAVA_HOME

在~/.bashrc文件中添加JAVA_HOME,可添加到文件最后,如果使用的root用户,则.bashrc文件在/root下,其他用户都在/home/用户名 下。

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64

4 安装Scala

4.1 下载及安装Scala

因为Scala2与Scala3存在不少区别,所以建议下载Scala2,最新版本是2.13.13版。

4.2 安装步骤

4.2.1 建立一个下载文件夹

sudo mkdir 下载

#或者使用鼠标在桌面新建一个文件夹,名字叫”下载”

4.2.2 解压及安装

# 解压到/usr/local中

sudo tar -zxf ~/下载/scala-2.13.13.tgz -C /usr/local  

cd /usr/local/

sudo mv ./scala-2.13.13 ./scala         # 将文件夹名改为scala

# 修改文件权限,用hadoop用户拥有对scala目录的权限

sudo chown -R hadoop ./scala       

在~/.bashrc文件中添加scala文件执行的路径

export PATH=$PATH:/usr/local/scala/bin

直接执行source命令,让路径生效

source ./bashrc

验证是否成功:

VM:/usr/local$ scala

Welcome to Scala 2.13.13 (OpenJDK 64-Bit Server VM, Java 17.0.10).

Type in expressions for evaluation. Or try :help.

scala>

5 安装ssh

5.1 安装过程

5.1.1 安装ssh

sudo apt install openssh-server

5.1.2 第一次登录自己需要输入密码

ssh localhost

5.1.3 切换到root用户

su -

如果不记得密码了

sudo passwd root

5.1.4 必须设置免密码登录,否则Hadoop启动会出问题,下面是修改步骤

首先修改sshd_config文件(/etc/ssh/sshd_conifg)

将PermitRootLogin prohibie-password 修改为:PermitRootLogin yes

将PasswordAuthentication 后修改为yes

方法1:

exit                           # 退出刚才的 ssh localhost

cat ./id_rsa.pub >> ./authorized_keys  # 加入授权

cd ~/.ssh/                     # 若没有该目录,请先执行一次ssh localhost,然后再输入命令

ssh-keygen -t rsa              # 会有提示,都按回车就可以

方法2:

ssh-keygen -t rsa   #指定密钥类型为rsa,一直回车就好

ssh-copy-id root@hadoop01  #将公钥复制到远程服务器

注:

ssh-keygen -t rsa -P ""

#-P ""的意思是指设置密钥对的密码为空。

#实际上没有意义,因为ssh-copy-id将公钥复制到远程服务器上了,等同于无需输入密钥。

测试:ssh root@主机名文章来源地址https://www.toymoban.com/news/detail-856621.html

到了这里,关于ubuntu下Hadoop以及Spark的伪分布式安装:一的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 虚拟机Ubuntu安装Hadoop(伪分布式安装)

    1.创建hadoop用户 在终端输入 为hadoop用户设置密码,连续输入两次密码即可 为Hadoop用户增加管理员权限,避免以后的麻烦 这里我们切换到hadoop用户,进行下一步操作 2.ssh的安装以及设置免密登录 检测ssh是否安装,有sshd说明已经启动 这边我们还需要安装ssh server,这边又yes输入

    2023年04月08日
    浏览(38)
  • 分布式搭建(hadoop+hive+spark)

    hadoop-master 192.168.43.141 hadoop-slave1 192.168.43.142 hadoop-slave2 192.168.43.143 链接:https://pan.baidu.com/s/1OwKLvZAaw8AtVaO_c6mvtw?pwd=1234 提取码:1234 MYSQL5.6:wget http://repo.mysql.com/mysql-community-release-el6-5.noarch.rpm Scale:wget https://downloads.lightbend.com/scala/2.12.4/scala-2.12.4.tgz

    2024年02月12日
    浏览(43)
  • Hadoop(伪分布式)+Spark(local模式)搭建Hadoop和Spark组合环境

    环境 使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04,Ubuntu16.04 也行,32位、64位均可),请自行安装系统。 Hadoop版本 : Hadoop 2.7.4 创建hadoop用户 如果你安装 Ubuntu 的时候不是用的 \\\"hadoop\\\" 用户,那么需要增加一个名为 hadoop 的用户。 首先按 ctrl+alt+t 打开终端窗口,输入如下命令创

    2023年04月08日
    浏览(70)
  • 伪分布式hadoop+spark+scala 超详细搭建

    目录 安装伪分布式hadoop 安装 JAVA 环境 实现免密登陆 Hadoop环境的安装与配置 安装伪分布式spark  安装伪分布式scala 步骤一:下载 JDK 安装包(jdk-8u152-linuxx64.tar.gz) 官网地址:https://www.oracle.com/java /technologies /javase-jdk8-downloads.html 步骤二:卸载自带 OpenJDK [root@master ~]# rpm -qa |

    2024年04月27日
    浏览(35)
  • Hadoop3.1.3安装教程_单机/伪分布式配置_Hadoop3.1.3/Ubuntu18.04(16.04)

    目录 前言: 一、VMware Workstation 二、Ubuntu系统安装 新建虚拟机 三、Ubuntu系统的配置 四、更新apt 五、安装SSH、配置SSH无密码登陆  六、安装Java环境 七、安装 Hadoop3.1.3 八、Hadoop单机配置(非分布式) 九、Hadoop伪分布式配置 前言:         本篇教程由作者本人进行修改,原教

    2024年02月03日
    浏览(46)
  • 分布式计算中的大数据处理:Hadoop与Spark的性能优化

    大数据处理是现代计算机科学的一个重要领域,它涉及到处理海量数据的技术和方法。随着互联网的发展,数据的规模不断增长,传统的计算方法已经无法满足需求。因此,分布式计算技术逐渐成为了主流。 Hadoop和Spark是目前最为流行的分布式计算框架之一,它们都提供了高

    2024年01月23日
    浏览(57)
  • 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍

    分布式集群——jdk配置与zookeeper环境搭建 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍 文章目录 前言 一 hadoop的相关概念 1.1 Hadoop概念 补充:块的存储 1.2 HDFS是什么 1.3 三种节点的功能 I、NameNode节点 II、fsimage与edits文件存放的内容介绍 III、DataNode节点 IV、SecondaryNameNod

    2024年02月10日
    浏览(54)
  • Hadoop HDFS分布式文件系统(介绍以及基础操作命令)

    目录 一、为什么需要分布式存储? 二、分布式的基础架构分析  三、HDFS基础架构 1.HDFS简介 四、HDFS集群启停命令 1.一键启停脚本 2.单进程启停 五、HDFS基本操作命令 1.创建文件夹  2.查看指定目录下内容  3.上传文件到HDFS指定目录下  4.查看HDFS文件内容 5.下载HDFS文件  6.拷贝

    2024年02月05日
    浏览(70)
  • Hadoop分布式安装

    首先准备好三台服务器或者虚拟机,我本机安装了三个虚拟机,安装虚拟机的步骤参考我之前的一篇 virtualBox虚拟机安装多个+主机访问虚拟机+虚拟机访问外网配置-CSDN博客 jdk安装 参考文档:Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博

    2024年02月08日
    浏览(51)
  • (小白全过程记录)Ubuntu下伪分布式Hadoop环境搭建

    目录 0.准备 1.Hadoop伪分布式环境搭建 2.安装ssh,配置ssh无密码登录 3.通过拖拽的方式将文件从windows传到linux桌面 5.安装hadoop 6.修改hadoop环境变量 7.修改配置文件 core-site.xml 8.修改配置文件hdfs-site.xml文件 9.执行NameNode的格式化 10.开启NameNode和DataNode守护进程 11.访问web页面 12.关闭

    2024年02月03日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包