【大数据学习篇2】Hadoop集群安装

这篇具有很好参考价值的文章主要介绍了【大数据学习篇2】Hadoop集群安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 准备3台机器

IP 机器名 root密码 用户名 密码 进程
192.168.20.44 master hd hd hd namenode,ResourceManager,SecondaryNameNode
192.168.20.45 slave01 hd hd hd datanode,NodeManager
192.168.20.46 slave02 hd hd hd datanode,NodeManager

2.用户权限

root 超级管理员(系统文件修改)
hd 普通角色用户 (在/home/hd/*   进行所有增删改查)

密码统一设置成:hd 或者 123456

3. 修改静态IP地址

3.1 第一台机器

设置网卡为静态的地址

切换root用户
[hd@bogon Desktop]$ su root
Password: 
修改网卡
[root@bogon Desktop]# vim /etc/sysconfig/network-scripts/ifcfg-eth0 
DEVICE="eth0"
BOOTPROTO="static" 
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.245.20  
重启网卡
[root@bogon Desktop]# service network restart 
查看IP信息
[root@bogon Desktop]# ifconfig 

3.2第二台机器

切换root用户
[hd@bogon Desktop]$ su root
Password: 
修改网卡
[root@bogon Desktop]# vim /etc/sysconfig/network-scripts/ifcfg-eth0 
DEVICE="eth0"
BOOTPROTO="static"     
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.245.30
删除电脑网卡与系统绑定关系
[root@localhost Desktop]# rm -rf /etc/udev/rules.d/70-persistent-net.rules 
重启系统
[root@localhost Desktop]# reboot
查看IP信息
[root@bogon Desktop]# ifconfig 

3.3 第三台机器

切换root用户
[hd@bogon Desktop]$ su root
Password: 
修改网卡
[root@bogon Desktop]# vim /etc/sysconfig/network-scripts/ifcfg-eth0 
DEVICE="eth0"
BOOTPROTO="static"     
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.245.40
删除电脑网卡与系统绑定关系
[root@localhost Desktop]# rm -rf /etc/udev/rules.d/70-persistent-net.rules 
重启系统
[root@localhost Desktop]# reboot
查看IP信息
[root@bogon Desktop]# ifconfig

4. 获取机器的IP地址

[root@localhost ~]# ifconfig 
eno16777736: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.20.46  netmask 255.255.255.0  broadcast 192.168.20.46
#如果没有查看IP的命令就安装步骤
[hd@localhost root]$ su root
Password: 
[root@localhost ~]# yum install -y net-tools
#也可查看ip addr 命令查看IP地址。 
[hd@slave02 ~]$ ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:4f:71:df brd ff:ff:ff:ff:ff:ff
    inet 192.168.20.46/24 brd 192.168.20.255 scope global noprefixroute dynamic ens160
       valid_lft 32521sec preferred_lft 32521sec
    inet6 fe80::f52e:651e:721b:a15a/64 scope link tentative noprefixroute dadfailed 
       valid_lft forever preferred_lft forever
    inet6 fe80::5ebb:a198:b90f:fe68/64 scope link tentative noprefixroute dadfailed 
       valid_lft forever preferred_lft forever
    inet6 fe80::c180:4b3e:a100:224c/64 scope link tentative noprefixroute dadfailed 
       valid_lft forever preferred_lft forever

5. Linux安装Java环境

Linux常用的命令

su 切换用户
pwd 显示当前目录
tar 解压,压宿
cd 进入目录
mv 移动文件,也可以改文件名
source /etc/profile 加载环境变量
vi 文本编辑器,相当于我们的记事本一样,但是使用的都是命令的操作。

5.1 把Linux自带Java环境删除

[hd@localhost ~]$ su root 
Password: 
[root@localhost hd]# yum remove  -y  java*  

5.2 上传Java包

[root@localhost hd]# su hd
[hd@localhost ~]$ pwd
/home/hd
[hd@localhost ~]$ mkdir apps #上传到此目录 
[hd@localhost ~]$ cd apps/
[hd@localhost apps]$ 
#上传过程
[hd@localhost apps]$ ll
total 178952
-rw-rw-r--. 1 hd hd 183246769 Apr 26  2018 jdk-8u121-linux-x64.tar.gz

5.3 解压java包

#解压
[hd@localhost apps]$ tar -zxvf jdk-8u121-linux-x64.tar.gz 
[hd@localhost apps]$ ll
total 178956
drwxr-xr-x. 8 hd hd      4096 Dec 12  2016 jdk1.8.0_121
-rw-rw-r--. 1 hd hd 183246769 Apr 26  2018 jdk-8u121-linux-x64.tar.gz
[hd@localhost apps]$ 
#目录改名
[hd@localhost apps]$ mv jdk1.8.0_121/ java  
[hd@localhost apps]$ ll
total 178956
drwxr-xr-x. 8 hd hd      4096 Dec 12  2016 java
-rw-rw-r--. 1 hd hd 183246769 Apr 26  2018 jdk-8u121-linux-x64.tar.gz

5.4 配置java环境

[hd@localhost apps]$ su root
Password: 
[root@localhost apps]# cd java/
[root@localhost java]# pwd
/home/hd/apps/java
[root@localhost java]# 
[root@localhost java]# vi /etc/profile

使用vi编辑器,在/etc/profile增加java环境变量

export JAVA_HOME=/home/hd/apps/java
export PATH=$PATH:$JAVA_HOME/bin

重加载一下系统环境

[root@localhost java]# source /etc/profile
[root@localhost java]# java -version
java version "1.8.0_121"
Java(TM) SE Runtime Environment (build 1.8.0_121-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)

5.5 配置第二台,第三台机器的Java环境

使用scp远程拷贝命令

scp  file2  [[user@]host2:]file2

1.把每一台机的java目录,拷贝到第二台机器

[root@localhost apps]# su hd
[hd@localhost apps]$ 
[hd@localhost apps]$  scp -r java  hd@192.168.126.129:/home/hd/apps/

2.把每一台机的profile文件,拷贝到第二台机器

[hd@localhost apps]$ su root
Password: 
[root@localhost apps]# scp /etc/profile root@192.168.126.129:/etc/
The authenticity of host '192.168.126.129 (192.168.126.129)' can't be established.
ECDSA key fingerprint is fb:0a:7a:9f:9a:bc:4f:ff:66:29:1d:1d:b9:a0:35:d1.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added '192.168.126.129' (ECDSA) to the list of known hosts.
root@192.168.126.129's password: 
profile                                                                                                        100% 1820     1.8KB/s   00:00    
[root@localhost apps]# 

3.第二台机器加载profile

[hd@localhost apps]$ source /etc/profile
[hd@localhost apps]$ 
[hd@localhost apps]$ java -version
java version "1.8.0_121"
Java(TM) SE Runtime Environment (build 1.8.0_121-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)
[hd@localhost apps]$ 

第三台机,执行以上的步骤

6. 安装hadoop之前准备

6.1 修改主机名

  1. 第一台机器master
  2. 第二台机器slave01
  3. 第三台机器slave02
[hd@localhost ~]$ hostnamectl set-hostname master
==== AUTHENTICATING FOR org.freedesktop.hostname1.set-static-hostname ===
Authentication is required to set the statically configured local host name, as well as the pretty host name.
Authenticating as: root
Password: 
==== AUTHENTICATION COMPLETE ===
[hd@localhost ~]$ hostnamectl set-hostname slave01
[hd@localhost ~]$ hostnamectl set-hostname slave02

6.2 修改/etc/hosts 文件

[hd@master ~]$ su root
Password: 
[root@master hd]# vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.126.128 master
192.168.126.129 slave01
192.168.126.130 slave02

同步到第二,三台机器

#第二台机器
[root@master hd]# scp /etc/hosts root@slave01:/etc/
#第三台机器
[root@master hd]# scp /etc/hosts root@slave02:/etc/

6.3 关闭防火墙

启动:systemctl start firewalld.service
查看状态: systemctl status firewalld.service
停止: systemctl stop firewalld.service
禁用: systemctl disable firewalld.service 
重启: systemctl  restart firewalld.service

6.4 免密登录

需要做的免密的机器

机器---->机器(免密登录)
master ----> slave01
master ----> slave02
master ----> master

6.4.1 生成密钥

[hd@master ~]$ ssh-keygen 
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hd/.ssh/id_rsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /home/hd/.ssh/id_rsa.
Your public key has been saved in /home/hd/.ssh/id_rsa.pub.
The key fingerprint is:
ef:ff:98:6c:a4:66:ca:66:a0:cd:a4:da:75:9c:c0:9f hd@slave02
The key's randomart image is:
+--[ RSA 2048]----+
|                 |
|                 |
|                 |
|     .           |
|      o S        |
|      o+ +  .    |
|     *..E .o     |
|   .o.ooo.+..o   |
|  ...  oo+.o=..  |
+-----------------+

6.4.2 拷贝密钥到你需要免密登录的机器

[hd@master ~]$ ssh-copy-id slave02
The authenticity of host 'slave02 (192.168.126.130)' can't be established.
ECDSA key fingerprint is 09:57:a3:56:3b:5f:f0:01:55:0e:42:f3:4c:43:3d:d5.
Are you sure you want to continue connecting (yes/no)? yes
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
hd@slave02's password: 
Number of key(s) added: 1
Now try logging into the machine, with:   "ssh 'slave02'"
and check to make sure that only the key(s) you wanted were added.

6.4.3 测试免密登录

[hd@master ~]$ ssh slave01
Last login: Sun Jul 12 23:54:32 2020 from 192.168.22.130

7. Hadoop安装

7.1 上传hadoop安装包

[hd@master hadoop]$ rz
rz waiting to receive.
 zmodem trl+C ȡ

7.2 解压安装包

[hd@master apps]$ su hd
Password: 
[hd@master apps]$ pwd
/home/hd/apps
[hd@master apps]$ tar -zxvf hadoop-3.0.0.tar.gz 

7.3 改目录名称

hd@master apps]$ mv hadoop-3.0.0 hadoop
[hd@master apps]$ ll
total 324644
drwxr-xr-x. 12 hd hd       192 Jul 11 00:09 hadoop

7.4 修改hadoop配置文件

7.4.1 修改hadoop-env.sh

[hd@master ~]$ cd /home/hd/apps/hadoop/etc/hadoop/
[hd@master hadoop]$ pwd
/home/hd/apps/hadoop/etc/hadoop
[hd@master hadoop]$ vi hadoop-env.sh
#在文件的尾部(按“G”可以跳到文档的尾部),增加
export JAVA_HOME=/home/hd/apps/java

7.4.2 修改core-site.xml

<configuration>
    <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hd/apps/hadoop/tmpdata</value>
    </property>
</configuration>

7.4.3 修改hdfs-site.xml

<configuration>
    <!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <!-- 设置namenode的http通讯地址 -->
    <property>
        <name>dfs.namenode.http-address</name>
        <value>master:50070</value>
    </property>
    <!-- 设置secondarynamenode的http通讯地址 -->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>master:50090</value>
    </property>
    <!-- 设置namenode存放的路径 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/home/hd/apps/hadoop/namenode</value>
    </property>
    <!-- 设置datanode存放的路径 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/home/hd/apps/hadoop/datanode</value>
    </property>
</configuration>

7.4.4 修改mapred-site.xml

<configuration> 
    <!-- 指定mr运行在yarn上 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=/home/hd/apps/hadoop</value>
    </property>
    <property>
          <name>mapreduce.map.env</name>
          <value>HADOOP_MAPRED_HOME=/home/hd/apps/hadoop</value>
    </property>
    <property>
          <name>mapreduce.reduce.env</name>
          <value>HADOOP_MAPRED_HOME=/home/hd/apps/hadoop</value>
    </property>
</configuration>

7.4.5 修改yarn-site.xml

<configuration>
    <!-- 指定YARN的老大(ResourceManager)的地址 -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
    </property>
    <!-- reducer获取数据的方式 -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

7.4.6 修改workers

[hd@master hadoop]$ vi workers 
slave01
slave02

7.4.7 修改环境变量

[hd@master hadoop]$ su root 
Password: 
[root@master hadoop]# vi /etc/profile
#增加
export HADOOP_HOME=/home/hd/apps/hadoop
#增加
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

7.5 拷贝到第二,三台机

[root@master hadoop]# su hd
[hd@master hadoop]$ scp  -r /home/hd/apps/hadoop hd@slave01:/home/hd/apps/
[hd@master hadoop]$ scp  -r /home/hd/apps/hadoop hd@slave02:/home/hd/apps/
[hd@master hadoop]$ su root
Password: 
[root@master hadoop]# scp /etc/profile root@slave01:/etc/
root@slave01's password: 
profile                                                                                                        100% 1896     1.9KB/s   00:00    
[root@master hadoop]# scp /etc/profile root@slave02:/etc/
profile                                                                                                        100% 1896     1.9KB/s   00:00    

在第三台机器里加载环境

[root@master hadoop]#  source /etc/profile
[hd@master hadoop]$ hadoop version
Hadoop 3.0.0

7.6 格式化

[hd@master hadoop]$ ll /home/hd/apps/hadoop/namenode
ls: cannot access /home/hd/apps/hadoop/namenode: No such file or directory
[hd@master hadoop]$ hadoop namenode -format 

7.7 启动hadoop

start-dfs.sh 启动HDFS分布式文件系统,停止stop-dfs.sh

start-yarn.sh 启动Yarn资源管理器,停止stop-yarn.sh

start-all.sh HDFS分布式文件系统与Yarn启动,停止stop-all.sh

7.8 jps查看进程

[hd@master ~]$ jps
23668 SecondaryNameNode
23467 NameNode
23903 ResourceManager
24207 Jps
[hd@slave01 ~]$ jps
22341 DataNode
22649 Jps
22458 NodeManager
[hd@slave02 ~]$ jps
23367 Jps
23176 NodeManager
23051 DataNode

7.9 测试

hdfs 文件系统访问地址:http://192.168.126.128:50070/dfshealth.html#tab-overview

Yarn资源管理器访问地址:http://192.168.126.128:8088/cluster文章来源地址https://www.toymoban.com/news/detail-440720.html

到了这里,关于【大数据学习篇2】Hadoop集群安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【大厂AI课学习笔记】【2.2机器学习开发任务实例】(3)数据准备和数据预处理

    项目开始,首先要进行数据准备和数据预处理。 数据准备的核心是找到这些数据,观察数据的问题。 数据预处理就是去掉脏数据。 缺失值的处理,格式转换等。 延伸学习: 在人工智能(AI)的众多工作流程中,数据准备与预处理占据着举足轻重的地位。这两个步骤不仅影响

    2024年02月19日
    浏览(47)
  • 0201hdfs集群部署-hadoop-大数据学习

    下面我们配置下单namenode节点hadoop集群,使用vmware虚拟机环境搭建。vmware虚拟机的配置,在下面链接2有,或者自行查阅文档。hadoop安装包可到官网下载,当前相关软件环境如下: 软件 版本 说明 hadoop 3.3.4 jar包 vmware 15.5 虚拟机 centos 7.6 服务器操作系统 xshell 6 远程连接 jdk 1.8

    2024年02月11日
    浏览(47)
  • 大数据学习02-Hadoop分布式集群部署

    操作系统:centos7 软件环境:jdk8、hadoop-2.8.5 1.下载VMware,建议支持正版 2.安装到Widows目录下任意位置即可,安装目录自定义。打开VMware,界面如下: 3.创建虚拟机 创建虚拟机—选择自定义 这一步按照默认的配置就好 选择系统,安装程序光盘映像文件iso,这里需要下载cenos镜像

    2024年02月16日
    浏览(63)
  • 机器学习06 数据准备-(利用 scikit-learn基于Pima Indian数据集作 数据特征选定)

    数据特征选定(Feature Selection)是指从原始数据中选择最相关、最有用的特征,用于构建机器学习模型。特征选定是机器学习流程中非常重要的一步,它直接影响模型的性能和泛化能力。通过选择最重要的特征,可以减少模型的复杂性,降低过拟合的风险,并提高模型的训练

    2024年02月14日
    浏览(77)
  • 大数据技术之Hadoop:HDFS集群安装篇(三)

    目录 分布式文件系统HDFS安装篇 一、为什么海量数据需要分布式存储 二、 分布式的基础架构分析 三、 HDFS的基础架构 四 HDFS集群环境部署 4.1 下载安装包 4.2 集群规划 4.3 上传解压 4.4 配置HDFS集群 4.5 准备数据目录 4.6 分发hadoop到其他服务器 4.7 配置环境变量 4.8 为普通用户授

    2024年02月14日
    浏览(51)
  • 【大数据存储与处理】1. hadoop单机伪分布安装和集群安装

    hadoop2.10.2 ubuntu20.04 openjdk-8-jdk Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Ha

    2024年02月06日
    浏览(46)
  • 机器学习05-数据准备(利用 scikit-learn基于Pima Indian数据集作数据预处理)

    机器学习的数据准备是指在将数据用于机器学习算法之前,对原始数据进行预处理、清洗和转换的过程。数据准备是机器学习中非常重要的一步,它直接影响了模型的性能和预测结果的准确性 以下是机器学习数据准备的一些常见步骤: 数据收集:首先需要收集原始数据,可

    2024年02月14日
    浏览(38)
  • elasticsearch|大数据|elasticsearch低版本集群的部署安装和安全增强---密码设置问题

    elasticsearch的高低版本划分标准为6.3,该版本之前的为低版本,6.3版本之后的包括6.3为高版本,这么划分主要是在安全性方面也就是x-pack插件的使用部署方面,低版本需要手动安装该安全插件,而高版本无需安装。另一方面,高版本的es漏洞会少一些,而本例中使用的是低版本

    2024年02月03日
    浏览(54)
  • 开源大数据集群部署(二)集群基础环境实施准备

    作者:櫰木 本次使用到的二进制软件包目录为:系统初始化前提是操作系统已完成安装、各个主机之间网络互通,系统常用命令已安装,本默认这些前提条件已具备,不在阐述。 安装centos系统完成后需要对主机进行初始化配置和验证工作,在所有主机上(hd1.dtstack.com-hd3)均

    2024年02月03日
    浏览(50)
  • 大数据处理中的数据处理与算法优化:机器学习在Hadoop处理中的应用

    作者:禅与计算机程序设计艺术 大数据处理中的数据处理与算法优化:机器学习在Hadoop处理中的应用 引言 随着大数据时代的到来,大量的数据处理需求不断增加,数据处理质量和效率成为企业、政府、科研机构等用户关注的焦点。机器学习作为一种新兴的数据处理技术,在

    2024年02月13日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包