VMware搭建Hadoop集群 for Windows(完整详细,实测可用)

这篇具有很好参考价值的文章主要介绍了VMware搭建Hadoop集群 for Windows(完整详细,实测可用)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一、VMware 虚拟机安装

(1)虚拟机创建及配置 

(2)创建工作文件夹

二、克隆虚拟机

三、配置虚拟机的网络

(1)虚拟网络配置

(2)配置虚拟机 主机名

(3)配置虚拟机hosts

(4)配置DNS、网关等

(5)reboot 重启虚拟机

四、配置SSH服务

(1)确认ssh进程 

(2)生成秘钥

(3)秘钥拷贝

 五、JDK安装

(1)把JDK安装包传输到虚拟机

(2)把JDK安装包解压到/export/software/

(3)配置JDK环境变量

六、Hadoop安装

(1)安装包上传及解压

(2)Hadoop系统环境配置 

(3)Hadoop集群境配置 

3.1 修改hadoop-env.sh文件

3.2 修改core-site.xml文件

3.3 修改hdfs-site.xml文件

3.4 修改mapred-site.xml文件

3.5 修改yarn-site.xml文件

3.6 修改workers文件

(4)将集群主节点的配置文件分发到其他子节点

(5)格式化文件系统

(6)集群启动

七、浏览器查看Hadoop集群

(1)修改windows下ip映射

(2)防火墙关闭

(3)浏览器查看


一、VMware 虚拟机安装

(1)虚拟机创建及配置 

VMware下载地址

VMware的安装过程比较简单,正常安装就行,打开后是以下页面:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 点击文件==》新建虚拟机

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 这里选择提前下载好的CentOS镜像:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 点击开启此虚拟机vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 Enter回车,开始安装CentOS镜像:vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 选择语言:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 设置日期:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 安装位置点进去,点击完成:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 KDUMP禁用:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 网络和主机名:

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 点击开始安装:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 设置密码

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

这里要是密码设置过于简单,点击两次完成即可,后面就会继续执行安装了,等待执行完成,店点击重启按钮,重启后进入一下界面:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

输入root和密码之后进入虚拟机:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(2)创建工作文件夹

在hadoop01上执行:

mkdir -p /export/data
mkdir -p /export/servers
mkdir -p /export/software

二、克隆虚拟机

搭建集群需要3个虚拟机,hadoop01,hadoop02,hadoop03,已经安装了hadoop01,剩下两个需要用到虚拟机克隆。

先关闭hadoop01虚拟机:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 点击克隆vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 同理,克隆出hadoop03即可,到这虚拟机创建及配置完毕。

三、配置虚拟机的网络

三台虚拟机的ip和域名映射关系如下:

192.168.121.221 hadoop01

192.168.121.222 hadoop02

192.168.121.223 hadoop03

(1)虚拟网络配置

打开虚拟网络编辑器:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

选择VMnet8 

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 之后点击确定即可。

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(2)配置虚拟机 主机名

在hadoop01虚拟机下执行: 

vi /etc/hostname

vi的insert、save等基本操作参考:https://blog.csdn.net/weixin_41231928

修改后如下: 

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 同理修改hadoop02和hadoop03的hostname为 hadoop02 和 hadoop03,原因是hadoop02和hadoop03是由hadoop01克隆来的,不修改的话,hostname都是hadoop01,修改后如下:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(3)配置虚拟机hosts

 其实就是配置ip和域名的映射关系。

vi /etc/hosts

上面的命令编辑hosts,在3个虚拟机都里面添加:

192.168.121.221 hadoop01

192.168.121.222 hadoop02

192.168.121.223 hadoop03

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(4)配置DNS、网关等

在3个虚拟机下新增以下ip设置

IPADDR="192.168.121.221"

NETMASK="255.255.255.0"

GATEWAY="192.168.121.2"

DNS1="114.114.114.114"

 执行以下命令:

vi  /etc/sysconfig/network-scripts/ifcfg-ens33

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(5)reboot 重启虚拟机

 以上所有配置完成后,执行:

reboot

然后可以验证下网络是否通,出现一下说明配置正常:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

四、配置SSH服务

SSH服务的作用一般是有两方面:一是便于虚拟机节点之间免密访问,二是传输数据时会有加解密的过程安全性更高。为了这三个节点间免密登录,比如后面在启动hadoop服务时,主节点启动其它从节点,就需要免密去执行。所以3台机器都执行以下流程,这样三台机器就可以使用ssh连接而无需输入密码了。

(1)确认ssh进程 

输入以下命令,查看ssh进程是否存在(默认是开启的): 

ps -e | grep sshd

如下便是开启状态: 

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(2)生成秘钥

ssh-keygen -t rsa

执行以上命令,不用输入,按3次回车:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(3)秘钥拷贝

三台机器的秘钥分别生成之后,需要将各自的秘钥拷贝到其他2台机器,3台机器都执行以下命令:

ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03

每条命令中间会有询问,输入“yes”回车,然后输入密码即可:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

验证下ssh配置:

在hadoop01下执行ssh hadoop02 和ssh hadoop03,能成功登录:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 五、JDK安装

下载一个linux版本的JDK,这里是 jdk-8u161-linux-x64.tar.gz,3台机器均要执行以下。

(1)把JDK安装包传输到虚拟机

这里我们需要借助ftcp文件传输软件,这里使用的是MobaxTerm,也可以使用别的文件传输软件,WinSCP\PuTTY\Xshell都可以。

MobaxTerm新建SFTP类型的session:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 可以新建一个root用户,把3个虚拟机的密码输入:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

点击ok后:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 选择jdk文件,拖入之前建好的/export/software文件夹:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(2)把JDK安装包解压到/export/software/

执行以下命令:

cd /export/software/
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/
cd /export/servers/
mv jdk1.8.0_161/ jdk

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(3)配置JDK环境变量

执行:

vim /etc/profile

在文末添加:

export JAVA_HOME=/export/servers/jdk

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

注意:

修改  /etc/profile 文件最后都要执行下 

source /etc/profile

才能是修改生效。最后执行java -version看下是否配置成功。

六、Hadoop安装

 Hadoop下载地址

这里使用的是 hadoop-3.1.3.tar.gz

(1)安装包上传及解压

跟前面JDK一样,先用 mobaxterm 将 hadoop-3.1.3.tar.gz 上传到3台机器的 /export/software:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

执行下面解压命令:

tar -zxvf hadoop-3.1.3.tar.gz -C /export/servers/

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(2)Hadoop系统环境配置 

执行:

vim /etc/profile

添加一下内容:

export HADOOP_HOME=/export/servers/hadoop-3.1.3

export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 一样,修改  /etc/profile 文件最后都要执行下 “vim /etc/profile”。

执行验证下:

hadoop version

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(3)Hadoop集群境配置 

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

3.1 修改hadoop-env.sh文件

执行:

cd /export/servers/hadoop-3.1.3/etc/hadoop
vim hadoop-env.sh

找到export JAVA_HOME的位置修改:

export JAVA_HOME=/export/servers/jdk

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

3.2 修改core-site.xml文件

vim core-site.xml

添加以下配置:

<configuration>

       <property>

              <name>fs.defaultFS</name>

              <value>hdfs://hadoop01:9000</value>

       </property>

       <property>

              <name>hadoop.tmp.dir</name>

              <value>/export/servers/hadoop-3.1.3/tmp</value>

       </property>

</configuration>

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 hadoop02、hadoop03修改时,把对于域名修改成hadoop02、hadoop03即可。

3.3 修改hdfs-site.xml文件

vim hdfs-site.xml

添加以下配置:

<configuration>

       <property>

              <name>dfs.replication</name>

              <value>3</value>

       </property>

       <property>

              <name>dfs.namenode.secondary.http-address</name>

              <value>hadoop02:50090</value>

       </property>

</configuration>

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

dfs.namenode.secondary.http-address这配置在hadoop02、hadoop03不用配置。

3.4 修改mapred-site.xml文件

vim mapred-site.xml

添加以下配置:

<configuration>

<!-- 指定MapReduce运行时框架,这里指定在Yarn上,默认是local -->

       <property>

              <name>mapreduce.framework.name</name>

              <value>yarn</value>

       </property>start

</configuration>

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

3.5 修改yarn-site.xml文件

vi yarn-site.xml

添加以下配置:

<configuration>

   <property>

              <name>yarn.resourcemanager.hostname</name>

              <value>hadoop01</value>

       </property>

       <property>

              <name>yarn.nodemanager.aux-services</name>

              <value>mapreduce_shuffle</value>

       </property>

</configuration>

另外,需要执行下:

hadoop classpath

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 将返回的地址也写入配置文件:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

3.6 修改workers文件

vim workers

删除默认的localhost,添加以下内容: 

hadoop01

hadoop02

hadoop03

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

(4)将集群主节点的配置文件分发到其他子节点

执行:

scp /etc/profile hadoop02:/etc/profile
scp /etc/profile hadoop03:/etc/profile
scp -r /export/ hadoop02:/
scp -r /export/ hadoop03:/

传完之后要在hadoop02和hadoop03上分别执行 source /etc/profile 命令。

(5)格式化文件系统

hdfs namenode -format

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

这个执行成功以后,不要二次执行。

(6)集群启动

执行:

start-dfs.sh

vmware安装hadoop教程,大数据,hadoop,大数据,分布式  

然后3个机器分别 jps 查看进程情况:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

在主节点hadoop01上执行

start-yarn.sh

 启动resourcemanager和nodemanager:

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 jps:

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 如果想要关闭,输入:

stop-dfs.sh

以上hadoop安装配置就完成了。

七、浏览器查看Hadoop集群

(1)修改windows下ip映射

修改 C:\Windows\System32\drivers\etc下的hosts文件,添加以下内容:

192.168.121.221 hadoop01

192.168.121.222 hadoop02

192.168.121.223 hadoop03

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

 这样就可以通过hadoop01、hadoop02、hadoop03这样的域名来访问了。

(2)防火墙关闭

在3台虚拟机上均执行以下命令(一个是临时关闭,一个是开机就关闭即永久关闭,两个命令执行其中一个即可):

systemctl stop firewalld.service
systemctl disable firewalld.service

(3)浏览器查看

在浏览器输入:

http://hadoop01:9870

http://hadoop01:8088

即可访问 HDFS 和 Yarn

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

vmware安装hadoop教程,大数据,hadoop,大数据,分布式

以上已经将Hadoop集群搭建完毕!文章来源地址https://www.toymoban.com/news/detail-715358.html

到了这里,关于VMware搭建Hadoop集群 for Windows(完整详细,实测可用)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(38)
  • Hadoop简介以及集群搭建详细过程

    hadoop加群包括两个集群:hdfs集群,yarn集群 两个集群逻辑上分离,通常物理上在一起 两个集群都是标准的主从架构集群 逻辑上分离:两个集群相互之间没有依赖,互不影响 物理上在一起:某些角色今晚往往部署在同一台物理服务器上 MapReduce集群呢? MapReduce是计算框架、代

    2024年02月16日
    浏览(28)
  • hadoop伪分布式环境搭建,完整的详细步骤

    1、VMware14 2、一台ubtuntu 18 64位 3、主机名位master 4、ip 地址:192.168.136.31 5、本次实验需要的安装包 1、 查看id 地址 2、 关闭防火墙 命令来关闭防火墙 命令查看当前防火墙状态 3、 修改主机名、 添加主机映射 修改虚拟机hosts文件,将ip地址添加进来 使用 :wq 保存 测试是否修改

    2024年02月08日
    浏览(36)
  • 基于Hadoop搭建Flink集群详细步骤

    目录 1.xftp上传flink压缩包至hadoop102的/opt/software/目录下 2.解压flink压缩包至/opt/module/目录下 3. 配置flink-conf.yaml 4.配置masters 5.配置workers 6.配置环境变量my_env.sh 7.重启环境变量 8.分发/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh 9.另外两台重启环境变量 10.开启hadoop集群和flink集群 11.浏

    2024年02月09日
    浏览(53)
  • Hadoop 3.2.4 集群搭建详细图文教程

    目录 一、集群简介 二、Hadoop 集群部署方式  三、集群安装 3.1 集群角色规划  3.2 服务器基础环境准备  3.2.1 环境初始化  3.2.2 ssh 免密登录(在 hadoop01 上执行) 3.2.3 各个节点上安装 JDK 1.8 环境 3.3 安装 Hadoop 3.4 Hadoop 安装包目录结构 ​3.5 编辑 Hadoop 配置文件  3.5.1 hado

    2024年02月09日
    浏览(38)
  • Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

    实训课题 Hadoop集群安装 配置 和 详细 搭建 过程 实验步骤 : 一、虚拟机的安装部署 二、Linux系统安装部署 1.环境准备 2.系统安装 三、Centos系统安装 四、静态网络配置 五、虚拟机完整克隆配置 六、配置hosts文件和ssh免密登录 七、Hadoop集群配置 八、Hadoop集群测试 虚拟机的安装

    2024年02月06日
    浏览(37)
  • 大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(75)
  • Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学) 【超级详细】 一、用管理员身份运行虚拟机 二、创建新的虚拟机: 选择自定义→选择硬件兼容性:Workstation 15.x→选择稍后安装→选Linux(L)(选CentOS 7 64位)→编辑虚拟机名字并选择文件位置→处理器数量和内核数量均选1→选择虚拟机

    2024年02月02日
    浏览(36)
  • Hadoop集群安装和搭建(从零开始超级超级详细的过程)(上)

    本文直接从最最最开始安装Hadoop开始讲解,省略了虚拟机安装的这部分,这里我就默认学过Liunx的各位小伙伴们已经有相关环境了。 下半部分在这里~ Hadoop集群安装和搭建(从零开始超级超级详细的过程)(下) 组件 功能 HDFS 分布式文件系统 MapReduce 分布式并行编程模型 YA

    2024年02月06日
    浏览(40)
  • 三台异构服务器搭建hadoop HA集群史上最详细方案(HDFS+YARN)

     一、系统基础服务配置 主机名 IP 操作系统 CPU 内存 磁盘 Hive01 10.86.102.104 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive02 10.86.102.102 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive03 10.86.102.105 Centos 7.9.2009 Xeon 8260 X48 256G         11T 最终组成的是一个双副本56T的集群,设置YARN内存共400GB(可调) 3台服务

    2024年02月07日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包