Centos7部署hadoop(单机)

这篇具有很好参考价值的文章主要介绍了Centos7部署hadoop(单机)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.修改主机名称(需要在root用户下执行)
hostnamectl set-hostname 需要修改的主机名称
或者修改配置文件 vim /etc/hostname
centos7-64搭建大数据环境单机,hadoop,chrome,大数据
2.如果主机没有固定IP,需要固定IP(这一步自行查询)
3.关闭防火墙

systemctl start firewalld.service  #开启防火墙
systemctl restart firewalld.service #重启防火墙
systemctl stop firewalld.service #关闭防火墙
systemctl status firewalld.service # 防火墙状态

4.禁用selinux
永久关闭selinux 安全策略,可以修改/etc/selinux/config, 将SELINUX=enforcing 修改为SELINUX=disabled

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of three values:
#     targeted - Targeted processes are protected,
#     minimum - Modification of targeted policy. Only selected processes are protected.
#     mls - Multi Level Security protection.
SELINUXTYPE=targeted

5.设置ssh免密登录
进入/root/.ssh储存密钥文件夹,通过ls -l指令查看是否有旧密钥
cd /root/.ssh #进入秘钥存放目录
rm -rf * #删除旧秘钥
使用ssh-keygen -t dsa 命令生成秘钥,在这个过程中需要多次回车键选取默认配置

[root@localhost .ssh]# ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/root/.ssh/id_dsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_dsa.
Your public key has been saved in /root/.ssh/id_dsa.pub.
The key fingerprint is:
SHA256:QNHQYbzj9rWNmAItP5x root@hadoopmaster
The key's randomart image is:
+---[DSA 1024]----+
|      +*oo . .   |
|     . 
|       B * * 
|         +  oo.oo|
+----[SHA256]-----+

将生成的密钥文件id_dsa.pub 复制到SSH指定的密钥文件中authorized_keys中

cat id_dsa.pub >>authorized_keys

测试秘钥是否登入成功

[root@localhost .ssh]# ssh hadoopmaster
The authenticity of host 'hadoopmaster (fe80::7468:4a91:e381:bd03%eth0)' can't be established.
ECDSA key fingerprint is SHA256:SOi/rsJBsRn/zcHQ/gtT0Bg.
ECDSA key fingerprint is MD5:6a:0:88:38:fc:e0:bf:4b6:bf:59:b0.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'hadoopmaster,f8a91:e3' (ECDSA) to the list of known hosts.
Last login: Fri Feb  2 10:17:45 2024 from 192.168

6.重启
修改主机名等相关配置,必须重启主机

[root@hadoopmaster ~]# reboot

7.安装jdk
将jdk-8u341-linux-x64.rpm上传到/user/local文件夹中,并执行
rpm -ivh jdk-8u341-linux-x64.rpm
这样安装的jdk路径为:/usr/java/jdk1.8.0_341-amd64
8.安装hadoop(hadoop用户下操作)
将hadoop-3.3.6.tar.gz文件上传到/home/hadoop文件夹,然后使用tar -xvf hadoop-3.3.6.tar.gz 解压文件,并使用mv hadoop-3.3.6 hadoop更改文件夹名
9.配置hadoop环境配置(root下操作)
vim /etc/profile

export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export HDFS_JOURNALNODE_USER=root

export HDFS_ZKFC_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export HADOOP_YARN_HOME=$HADOOP_HOME

export HADOOP_INSTALL=$HADOOP_HOME

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec

export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

修改完之后,执行source /etc/profile使变更环境变量生效

[root@hadoopmaster local]# source /etc/profile

在hadoop目录创建data目录
mkdir ./data
centos7-64搭建大数据环境单机,hadoop,chrome,大数据
11.修改配置文件
进入/home/hadoop/hadoop/etc/hadoop查看目录下的文件,配置几个必要的文件
centos7-64搭建大数据环境单机,hadoop,chrome,大数据
(1)配置core-site.xml
vim ./core-site.xml

<configuration>

	<property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoopmaster:9000</value>
                <description>NameNode URI</description>
        </property>

	<property>
      		<name>hadoop.tmp.dir</name>
      		<value>/home/hadoop/hadoop/data</value>
    	</property>

    	<property>
      		<name>hadoop.http.staticuser.user</name>
      		<value>root</value>
    	</property>

    	<property>
      		<name>io.file.buffer.size</name>
      		<value>131073</value>
    	</property>

    	<property>
      		<name>hadoop.proxyuser.root.hosts</name>
      		<value>*</value>
    	</property>

    	<property>
      		<name>hadoop.proxyuser.root.groups</name>
      		<value>*</value>
    	</property>

</configuration>

(2)配置hdfs-site.xml
vim ./hdfs-site.xml

<configuration>

        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>

        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/home/hadoop/hadoop/data/dfs/name</value>
        </property>

        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/home/hadoop/hadoop/data/dfs/data</value>
        </property>

        <property>
                <name>dfs.permissions.enabled</name>
                <value>false</value>
        </property>

</configuration>

(3)配置mapred-site.xml
vim ./mapred-site.xml

<configuration>

	<property>
      		<name>mapreduce.framework.name</name>
      		<value>yarn</value>
    	</property>

    	<property>
      		<name>mapreduce.jobhistory.address</name>
      		<value>hadoopmaster:10020</value>
    	</property>

    	<property>
      		<name>mapreduce.jobhistory.webapp.address</name>
      		<value>hadoopmaster:19888</value>
    	</property>

    	<property>
      		<name>mapreduce.map.memory.mb</name>
      		<value>2048</value>
    	</property>

    	<property>
      		<name>mapreduce.reduce.memory.mb</name>
      		<value>2048</value>
    	</property>

	<property>
      		<name>mapreduce.application.classpath</name>
      		<value>/home/hadoop/hadoop/etc/hadoop:/home/hadoop/hadoop/share/hadoop/common/*:/home/hadoop/hadoop/share/hadoop/common/lib/*:/home/hadoop/hadoop/share/hadoop/hdfs/*:/home/hadoop/hadoop/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop/share/hadoop/mapreduce/*:/home/hadoop/hadoop/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop/share/hadoop/yarn/*:/home/hadoop/hadoop/share/hadoop/yarn/lib/*</value>

    	</property>

</configuration>

(4)配置yarn-site.xml
vim ./yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>

     <name>yarn.resourcemanager.connect.retry-interval.ms</name>

     <value>20000</value>

   </property>

   <property>

     <name>yarn.resourcemanager.scheduler.class</name>

     <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>

   </property>

   <property>

     <name>yarn.nodemanager.localizer.address</name>

     <value>hadoopmaster:8040</value>

   </property>

   <property>

     <name>yarn.nodemanager.address</name>

     <value>hadoopmaster:8050</value>

   </property>

   <property>

     <name>yarn.nodemanager.webapp.address</name>

     <value>hadoopmaster:8042</value>

   </property>

  <property>

     <name>yarn.nodemanager.aux-services</name>

     <value>mapreduce_shuffle</value>

   </property>

   <property>

     <name>yarn.nodemanager.local-dirs</name>

     <value>/home/hadoop/hadoop/yarndata/yarn</value>

   </property>

   <property>

     <name>yarn.nodemanager.log-dirs</name>

     <value>/home/hadoop/hadoop/yarndata/log</value>

   </property>

   <property>

     <name>yarn.nodemanager.vmem-check-enabled</name>

     <value>false</value>

   </property>

</configuration>

(5)配置hadoop-env.sh
vim ./hadoop-env.sh
修改第54行

export JAVA_HOME=/usr/java/jdk1.8.0_341-amd64
centos7-64搭建大数据环境单机,hadoop,chrome,大数据
(6)配置workers
vim ./workers

[hadoop@hadoopmaster hadoop]$ vim ./workers
[hadoop@hadoopmaster hadoop]$ cat ./workers
hadoopmaster

11.初始化hadoop
进入/home/hadoop/hadoop/bin路径
执行:hadoop namenode -format
centos7-64搭建大数据环境单机,hadoop,chrome,大数据
12.Hadoop3 验证
Hadoop 使用之前必须进行格式化,可以使用如下指令进行格式化:
hadoop namenode -format
如果在使用Hadoop的过程中出错,或者Hadoop 无法正常启动,可能需要重新格式化
重新格式化的流程步骤:
停止Hadoop
删除Hadoop 下的data和logs文件夹
重新格式化
13.启动hadoop
start-all.sh
查看进程
jps
centos7-64搭建大数据环境单机,hadoop,chrome,大数据

13.停止hadoop
stop-all.sh文章来源地址https://www.toymoban.com/news/detail-828803.html

到了这里,关于Centos7部署hadoop(单机)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • CentOS7搭建hadoop集群

    说明:         1.准备三台虚拟机,参考:CentOS7集群环境搭建(以3台为例)         2.配置虚拟机间免密登陆:参考:CentOS7集群配置免密登录         3.虚拟机分别安装jdk:参考:CentOS7集群安装JDK1.8         4.hadoop安装包下载,下载地址 准备开始搭建hadoop集群,以下操作在第

    2024年02月09日
    浏览(56)
  • CentOS7下安装ElasticSearch7.6.1详细教程(单机、集群搭建)

    CentOS 7下安装ElasticSearch7.6.1详细教程 ElasticSearch客户端Kibana7.6.1安装教程 ElasticSearch分词器IK安装教程 Elasticsearch-head插件安装教程 想要学习ElasticSearch技术,需要在服务器搭建ElasticSearch环境。 CenOS:7; JDK:1.8; Elasticsearch:7.6.1; ES不能使用root用户来启动,必须使用普通用户来

    2023年04月09日
    浏览(55)
  • Elasticsearch7.8.0版本入门——单机部署(linux环境-centos7)

    1.1、下载地址 下载地址:https://www.elastic.co/cn/downloads/past-releases#elasticsearch 1.2、下载步骤 下载步骤如下所示: linux环境(centos7)安装JDK11步骤图解参考此博文:https://wwwxz.blog.csdn.net/article/details/128899399?spm=1001.2014.3001.5502 上传安装包到home目录下 opt目录下创建es文件夹 进入home目

    2024年02月06日
    浏览(55)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(49)
  • Centos7 x86服务器一键部署ES集群/单机shell

            由于日常的实施工作中经常用到单机或者集群的es,每次都手动部署感觉很麻烦,于是抽空写了一个一键部署脚本,通过简单指定集群名称、节点ip、端口等几个配置参数后自动部署es单机或者集群数据库 该安装包实现利用给定参数安装单机版或者集群版es数据库,指

    2023年04月11日
    浏览(85)
  • Centos7系统下搭建Hadoop 3.3.6

    本次使用3台服务器进行安装Hadoop。其中服务器系统均为Centos7.6、Hadoop版本为3.3.6、jdk版本为1.8.0_371。 ################################################################################################ 此外,大数据系列教程还在持续的更新中(包括跑一些实例、安装数据库、spark、mapreduce、hive等),

    2024年02月06日
    浏览(42)
  • CentOS7搭建伪分布式Hadoop(全过程2023)

    可以使用XFTP,用物理主机链接虚拟机的centos传送java文件,或者直接去java官网下载文件,解压。配置文件,启动配置。 验证java是否配置好 输入: java javac java -version 修改六个配置文件hadoop-env.sh 启动hadoop之前需要格式化(具体在出现的问题第六点) 验证: 出现错误,解决和验

    2024年02月08日
    浏览(52)
  • Centos7 + Hadoop 3.3.4 HA高可用集群部署

    目录 一、集群规划 二、主机环境准备 1、配置主机名 2、配置HOSTS 3、配置内核参数  4、配置Limits  5、关闭防火墙 6、关闭SELINUX 7、修改时区  8、修改中文支持 三、安装JDK 四、创建Hadoop用户 五、安装Zookeeper 1、下载安装 2、配置zoo.cfg 3、配置myid 4、启动/查看/停止服务 六、安

    2024年02月15日
    浏览(37)
  • Centos7原生hadoop环境,搭建Impala集群和负载均衡配置

    Impala集群包含一个Catalog Server (Catalogd)、一个Statestore Server (Statestored) 和若干个Impala Daemon (Impalad)。Catalogd主要负责元数据的获取和DDL的执行,Statestored主要负责消息/元数据的广播,Impalad主要负责查询的接收和执行。 Impalad又可配置为coordinator only、 executor only 或coordinator and exe

    2024年02月04日
    浏览(56)
  • 三台CentOS7.6虚拟机搭建Hadoop完全分布式集群(一)

    这个是笔者大学时期的大数据课程使用三台CentOS7.6虚拟机搭建完全分布式集群的案例,已成功搭建完全分布式集群,并测试跑实例。 1.1安装完虚拟机发现没有sudo命令和hadoop用户执行命令失败 我在安装CentOS 7.6虚拟机后,我发现不能执行sudo命令,同时hadoop用户执行命令失败。

    2024年02月03日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包