三台虚拟机搭建Hadoop集群(云计算实验新)

这篇具有很好参考价值的文章主要介绍了三台虚拟机搭建Hadoop集群(云计算实验新)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文将介绍利用三台虚拟机实现互相免密访问并搭建Hadoop集群。

一. 创建虚拟机

1. 下载操作系统镜像源

本文利用Centos7.9版本,下载地址,需要其他版本可在阿里镜像源下载。

2. 下载虚拟机软件VMware

VMware官网链接,VMware下载指南

3. 配置三台Centos虚拟机

VMware中创建虚拟机教程,创建完成一个虚拟机之后,利用管理克隆得到三台虚拟机。
hadoop集群虚拟机,课程实验,hadoop,云计算,centos

二. 虚拟机免密登录配置

1. 虚拟机IP设置

在centos命令行输入以下指令
(1) 切换到root用户

su root

(2) 查看当前网络IP

ip add

hadoop集群虚拟机,课程实验,hadoop,云计算,centos
可以查看到当前虚拟机的IP,我这里是192.168.3.89,但这个默认IP再次启动时会变化,我们希望有一个固定的代理IP。

(3) 打开虚拟机网卡配置

vi /etc/sysconfig/network-scripts/ifcfg-ens33

在其中加入

IPADDR=192.168.3.110         #ip地址 (更改为自己设定的IP)

重启网络服务(重要)

systemctl restart network

再次输入

ip add

hadoop集群虚拟机,课程实验,hadoop,云计算,centos
此时输入的192.168.3.110成为了代理IP。
依照此方法将三台虚拟机的IP设定下表:

Namenode 192.168.3.100
Datanode1 192.168.3.110
Datanode2 192.168.3.120

2. 设置三个节点间免密访问

(1) 节点配置
分别进入每个节点(虚拟机,修改它们的名字)

ssh 192.168.3.100
vi /etc/hostname
# 修改内容
Namenode

ssh 192.168.3.110
vi /etc/hostname
# 修改内容
Datanode1

ssh 192.168.3.120
vi /etc/hostname
# 修改内容
Datanode2

设置IP和主机名对应

vi /etc/hosts
# 将里面内容替换为
192.168.3.100	Namenode  
192.168.3.110	Datanode1
192.168.3.120	Datanode2

将Namenode节点配置复制到datanode上,即复制/etc/hosts的内容

#自行调整IP
scp /etc/hosts root@192.168.3.110:/etc/hosts
scp /etc/hosts root@192.168.3.120:/etc/hosts

(2) 设置密钥

# 密钥生成
ssh-keygen -t rsa //点击三次enter即可
ssh Datanode1
ssh-keygen -t rsa //点击三次enter即可
scp /root/.ssh/id_rsa.pub root@Namenode:/root/.ssh/id_rsa.pub.Datanode1
ssh Datanode2
ssh-keygen -t rsa //点击三次enter即可
scp /root/.ssh/id_rsa.pub root@Namenode:/root/.ssh/id_rsa.pub.Datanode2

# 密钥交互
ssh Namenode
cd /root/.ssh
cat id_rsa.pub >> authorized_keys
cat id_rsa.pub.Datanode1 >> authorized_keys
cat id_rsa.pub.Datanode2 >> authorized_keys
chmod 644 authorized_keys
scp ~/.ssh/authorized_keys root@Datanode1:/root/.ssh/authorized_keys
scp ~/.ssh/authorized_keys root@Datanode2:/root/.ssh/authorized_keys

(3) 防火墙设置
关闭三台虚拟机的防火墙

ssh Namenode
systemctl stop firewalld
ssh Datanode1
systemctl stop firewalld 
ssh Datanode2
systemctl stop firewalld 

(4) 连接测试

ssh Datanode1
ssh Datanode2
ssh Namenode

配置好后连接效果应如下:
hadoop集群虚拟机,课程实验,hadoop,云计算,centos

三. Hadoop 配置

1. 配置主节点

(1) 下载并解压所需包

ssh Namenode    //连接Namenode节点
mkdir  /home/hadoop
cd /home/hadoop/
wget http://denglab.org/cloudcomputing/download/hadoop.tar.gz
tar -zxvf hadoop.tar.gz
mkdir /home/jdk
cd /home/jdk/
wget http://denglab.org/cloudcomputing/download/jdk.tar.gz
tar -zxvf jdk.tar.gz

(2) 设置bash profile

vi ~/.bash_profile
# 替换配置文件内容
# export PATH
export JAVA_HOME=/home/jdk/jdk1.7.0_75
export JAVA_JRE=/home/jdk/jdk1.7.0_75/jre
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0

# path
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export PATH=$JAVA_HOME/bin:$PATH

hadoop集群虚拟机,课程实验,hadoop,云计算,centos

source ~/.bash_profile //保存配置

(3) 修改Hadoop配置文件(以下都是将原有的配置进行替换)
配置公共属性 core-site.xml

cd $HADOOP_HOME
mkdir namenode
mkdir datanode
cd etc/hadoop/
vi core-site.xml
# 替换配置<configuration>中内容
<configuration>
	<property>
		<name>fs.default.name</name>
		<value>hdfs://Namenode:9000</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/home/hadoop/hadoop-2.6.0/tmp/hadoop-${user.name}</value>
	</property>
</configuration>

配置hdfs-site.xml文件

vi hdfs-site.xml
# 替换配置<configuration>中内容
<configuration>
	<property>
		<name>dfs.replication</name>
		<value>2</value>
	</property>
	<property>
		<name>dfs.namenode.name.dir</name>
		<value>/home/hadoop/hadoop-2.6.0/namenode/name_1, /home/hadoop/hadoop-2.6.0/namenode/name_2</value>
	</property>
	<property>
		<name>dfs.datanode.data.dir</name>
		<value>/home/hadoop/hadoop-2.6.0/datanode/data_1, /home/hadoop/hadoop-2.6.0/datanode/data_2</value>
	</property>
</configuration>

配置 mapred-site.xml文件

vi mapred-site.xml
# 替换配置<configuration>中内容
<configuration>
	<property>
		<name>mapred.job.tracker</name>
		<value>Namenode:9001</value>
	</property>
</configuration>

配置java路径

vi hadoop-env.sh
# 替换原来路径内容
export JAVA_HOME=/home/jdk/jdk1.7.0_75

设置数据节点

vi slaves
# 将内容替换为
Datanode1
Datanode2

2. 配置从节点

(1) 将bash_profile从主节点复制到从节点

scp ~/.bash_profile root@Datanode1:~/.bash_profile
scp ~/.bash_profile root@Datanode2:~/.bash_profile

(2) 把hadoop,jdk文件和配置从主节点复制到从节点中(这一步花费时间略长)

scp -r /home/hadoop/ root@Datanode1:/home/hadoop
scp -r /home/hadoop/ root@Datanode2:/home/hadoop
scp -r /home/jdk/ root@Datanode1:/home/jdk
scp -r /home/jdk/ root@Datanode2:/home/jdk

3. 启动及测试hadoop

(1) 关闭namenode安全模式(重要)

ssh namenode
hdfs dfsadmin -safemode leave

关于安全模式问题参考博客
(2) 初始化并启动hadoop

cd $HADOOP_HOME
cd etc/hadoop
hdfs namenode -format   //初始化hadoop,不要多次初始化,可能会导致生成id不唯一
start-all.sh

多次初始化导致的异常可参照博客解决

(3) 查看HDFS文件系统状态

hdfs dfsadmin -report

hadoop集群虚拟机,课程实验,hadoop,云计算,centos

(4) 查看进程状态

jps

hadoop集群虚拟机,课程实验,hadoop,云计算,centos
(5) 测试HDFS文件系统

hadoop fs -ls /

hadoop集群虚拟机,课程实验,hadoop,云计算,centos
此时HDFS文件系统没有文件
在本地创建一个文件 test.txt

vi test.txt
# 添加内容 hello hadoop

(6) 上传文件

hadoop fs -put test.txt /test.txt

查看此时的HDFS文件系统

hadoop fs -ls /

hadoop集群虚拟机,课程实验,hadoop,云计算,centos
此时文件已经成功从本地上传到HDFS文件系统。

附:利用云服务器配置Hadoop集群可参考博客文章来源地址https://www.toymoban.com/news/detail-693188.html

到了这里,关于三台虚拟机搭建Hadoop集群(云计算实验新)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 三台异构服务器搭建hadoop HA集群史上最详细方案(HDFS+YARN)

     一、系统基础服务配置 主机名 IP 操作系统 CPU 内存 磁盘 Hive01 10.86.102.104 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive02 10.86.102.102 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive03 10.86.102.105 Centos 7.9.2009 Xeon 8260 X48 256G         11T 最终组成的是一个双副本56T的集群,设置YARN内存共400GB(可调) 3台服务

    2024年02月07日
    浏览(44)
  • 搭建hadoop集群,从安装虚拟机开始直到hadoop成功搭建

    搭建Hadoop集群   一、实验目的与要求 学习和掌握Hadoop的相关应用,首先必须得学会搭建Hadoop集群。本次实验将针对Hadoop集群的搭建内容进行演练。学会虚拟机的安装和克隆,Linux系统的网络配置和SSH配置,Hadoop集群的搭建和配置,Hadoop集群测试,熟悉Hadoop集群基本的操作。

    2023年04月08日
    浏览(33)
  • 大数据导论实验一:搭建Hadoop集群

    一、实验要求 (10%) 搭建Hadoop集群,要求至少是3个节点的真分布式集群系统,包含1个NameNode,两个DataNode。 集群的安装配置大致为如下流程: 1)准备3台客户机(关闭防火墙、静态IP、主机名称) 2)安装JDK 3)配置环境变量 4)安装Hadoop 5)配置环境变量 6)配置集群 7)单点

    2024年02月02日
    浏览(33)
  • 【李老师云计算】实验三:在Docker中部署Hadoop集群

    同样是参考了学长的几篇博客,涛哥功德无量!在整合了各种信息之后,鄙人会尽量用更精炼、简单的说明来完成这个实验,当然不足一定是会有的,希望各位朋友可以斧正,同样也希望后来的朋友可以再次为这篇博客进行升级迭代! 博客是面向实验的,因此对完成实验无关

    2024年02月05日
    浏览(32)
  • 大数据开发·关于虚拟机Hadoop完全分布式集群搭建教程

    官网链接 进入后网站如图,各位按需下载 官网链接 进入页面点击下载 再根据我们需要下载的软件进入下载页面 点击右侧红框内的免费授权页面获取免费许可 进入后如图,两者我们都需要所以都勾选,填写的邮箱用于接收下载链接,下载后进行安装即可 这里先和大家强调一

    2024年02月07日
    浏览(40)
  • 两台实体机器4个虚拟机节点的Hadoop集群搭建(Ubuntu版)

    两台机器,每台机器两台Ubuntu Ubuntu版本:ubuntu-22.04.3-desktop-amd64.iso 处理器数量2,每个处理器的核心数量2,总处理器核心数量4 单个虚拟机内存8192MB(8G),最大磁盘大小30G 清华大学开源软件镜像站 https://mirrors.tuna.tsinghua.edu.cn/ubuntu-releases/22.04/ 虚拟机(VMware)安装Linux(Ubun

    2024年02月08日
    浏览(36)
  • 搭建伪分布式集群(克隆三台虚拟机,配置ens33网络)

    目录 1 克隆虚拟机 1.修改主机名 2.修改UUID 2 配置ens-33网络        同样的,第三台也是重复操作即可 克隆完成三台虚拟机后,由于node02和node03都是由node01克隆来的,所以他们的主机名和UUID都是一样的,我们需要修改一下 1.修改主机名 在node01的虚拟机下,输入: hostnamectl s

    2024年02月06日
    浏览(31)
  • Hadoop集群搭建记录 | 云计算[CentOS7] | 伪分布式集群 Master运行WordCount

    本系列文章索引以及一些默认好的条件在 传送门 首先需要明确eclipse安装目录,然后将hadoop-eclipse-plugin_版本号.jar插件放在安装目录的dropins下 关于插件,可以通过博主上传到csdn的免费资源获取,链接 具体版本可以自己选择: 在eclipse界面中依次选择:Window→show view→other→

    2023年04月09日
    浏览(56)
  • 大数据集群搭建全部过程(Vmware虚拟机、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    1.网关配置(参照文档) 注意事项:第一台虚拟机改了,改为centos 101 ,地址为192.168.181.130 网关依然是192.168.181.2,但是一定要注意,它在D盘的文件名称是Hadoop 101,后面重新搭建的会命名文件夹为hadoop 101,hadoop 102和hadoop 103,然后发到一个总的文件夹hadoop_03里面去 VMnet8的IP地址一定

    2024年02月02日
    浏览(85)
  • 云计算集群搭建记录[Hadoop|Zookeeper|Hbase|Spark | Docker |OpenStack]更新索引 |动态更新

    为了能够更好的查看所更新的文章,讲该博文设为索引 为了解决在编辑文件等操作的过程中的权限问题,博主一律 默认采用 root 账户登录 对于初次安装的用户可以采用如下命令行: 另外推荐一款终端工具:Tabby,既能够连接自己的服务器,也能够连接自己本地的虚拟机,还

    2023年04月13日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包