hadoop3.3.1单机版环境搭建详细流程记录

这篇具有很好参考价值的文章主要介绍了hadoop3.3.1单机版环境搭建详细流程记录。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、在centos7中创建必要的目录;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

2、上传JDK安装包到tools目录;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

3、解压JDK到/opt/server/目录;

tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/server/

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

4、“vim:未找到命令”的解决办法;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

安装vim即可;

yum install -y vim

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

5、JDK配置环境变量;

vim /etc/profile

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

按“o”进入编辑模式;

#JDK环境变量
export JAVA_HOME=/opt/server/jdk1.8.0_221
export PATH=${JAVA_HOME}/bin:$PATH

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

编辑完内容后,“esc”-->“:”-->"wq"-->回车,执行保存并退出。

6、刷新环境变量,使其生效;

source /etc/profile

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

7、配置hosts;

vim /etc/hosts

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

点"i"或者"o"进入编辑模式;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

编辑完后,点"Esc"-->":"-->"wq",回车,保存退出。

8、配置免密;

生成公钥和私钥;(一直点下去即可)

ssh-keygen -t rsa

授权是单向的;

8.1、方法一:

进入 ~/.ssh 目录下,查看生成的公匙和私匙,并将公匙写入到授权文件;
cd ~/.ssh

cat id_rsa.pub >> authorized_keys

chmod 600 authorized_keys

8.2、方法二:

# 本机公钥拷贝到102服务器
ssh-copy-id hadoop102

# 回车,确认102密码后生效
方法二注意:切换用户后,需要重新配置免密。

9、上传hadoop3.3.1并解压;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

10、配置hadoop;

进入/opt/server/hadoop-3.3.1/etc/hadoop/目录下,
hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

(1)、修改hadoop-env.sh文件,设置JDK的安装路径;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop
vim hadoop-env.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

(2)、修改core-site.xml文件,分别指定hdfs 协议文件系统的通信地址及hadoop 存储临时文件的目录 (此目录不需要手动创建);

vim core-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <!--指定 namenode 的 hdfs 协议文件系统的通信地址-->
        <name>fs.defaultFS</name>
        <value>hdfs://server:8020</value>
    </property>
    <property>
        <!--指定 hadoop 数据文件存储目录-->
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/data</value>
    </property>
</configuration>

(3)、修改hdfs-site.xml,指定 dfs 的副本系数;

vim hdfs-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <!--由于我们这里搭建是单机版本,所以指定 dfs 的副本系数为 1-->
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

(4)、修改workers文件,配置所有从属节点;

vim workers

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

server

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

11、关闭防火墙;

如果不关闭防火墙,可能导致无法访问 Hadoop Web UI 界面;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

# 查看防火墙状态
sudo firewall-cmd --state
# 关闭防火墙:
sudo systemctl stop firewalld
# 禁止开机启动
sudo systemctl disable firewalld

12、格式化namenode;

初始化, 第一次启动 Hadoop 时需要进行初始化,进入 /opt/server/hadoop-3.3.1/bin 目录下,执
行以下命令:

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoophadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoophadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

13、Hadoop 3中不允许使用root用户来一键启动集群,需要配置启动用户;

进入目录“/opt/server/hadoop-3.3.1/sbin”,编辑start-dfs.sh、stop-dfs.sh,在顶部加入以下内容;

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

start-dfs.sh如下:

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

stop-dfs.sh如下:

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

14、启动hdfs;

进入/opt/server/hadoop-3.3.1/sbin/目录下,
./start-dfs.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

启动成功;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

15、查看 Web UI 界面,端口为 9870;

http://192.168.12.100:9870/

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

16、配置hadoop环境变量,方便启动;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

#Hadoop环境变量
export HADOOP_HOME=/opt/server/hadoop-3.3.1
export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin;

执行“source /etc/profile”刷新,使其生效。 

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

17、yarn环境搭建;

(1)、配置mapred-site.xml;

进入/opt/server/hadoop-3.3.1/etc/hadoop/目录;

vim mapred-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
</configuration>

(2)、配置yarn-site.xml;

vim yarn-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <!--配置 NodeManager 上运行的附属服务。需要配置成 mapreduce_shuffle 后才可以在Yarn 上运行 MapRedvimuce 程序。-->
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

18、hadoop3配置root启动yarn权限;

进入“/opt/server/hadoop-3.3.1/sbin/”目录;

# start-yarn.sh stop-yarn.sh在两个文件顶部添加以下内容
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
vim start-yarn.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoophadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

vim stop-yarn.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

19、启动yarn;

进入“/opt/server/hadoop-3.3.1/sbin/”目录;

./start-yarn.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

20、访问yarn的web管理界面;

http://192.168.12.100:8088/

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

21、“Permission denied: user=dr.who, access=WRITE, inode="/":root:supergroup:drwxr-xr-x”;

创建目录、上传文件失败。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

这里“dr.who”表示的是在网页端访问hdfs时的默认用户名,而真实是不存在的,它的权限很小,为了保证数据安全,无法访问其他用户的数据。修改默认登录用户就可解决此处权限问题。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

修改“/opt/server/hadoop-3.3.1/etc/hadoop/”目录下的core-site.xml;

添加下面属性;

    <property>
        <!--默认登录用户-->
        <name>hadoop.http.staticuser.user</name>
        <value>root</value>
    </property>

重启hdfs服务即可。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

创建目录成功;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

22、hdfs上传文件失败,“Couldn't upload the file xxxxxxxxxxx.csv.”;

原因:客户端web无法解析server域名到指定ip引起的。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

解决方法:

在本地win10配置host对虚拟机地址的访问;

192.168.12.100 server

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop文章来源地址https://www.toymoban.com/news/detail-700412.html

到了这里,关于hadoop3.3.1单机版环境搭建详细流程记录的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • hadoop伪分布式集群的安装(不是单机版)

    hadoop伪分布式集群的安装(不是单机版)

    三台虚拟机,关闭防火墙,关闭selinux 查看防火状态 systemctl status firewalld 暂时关闭防火墙 systemctl stop firewalld 永久关闭防火墙 systemctl disable firewalld 查看 selinux状态 getenforce 暂时关闭 selinux setenforce 0 永久关闭 selinux 在/etc/selinux/config文件中将SELINUX改为disabled   三台主机 根据自己

    2023年04月14日
    浏览(7)
  • 从0到一搭建Kafka-单机版-通过单机版zookeeper配置

    教程https://www.bilibili.com/video/BV1t34y1G7NW/ 首先得找到一些基本概念: Java 程序从源代码到运行主要有三步: 编译 :将我们的代码(.java)编译成虚拟机可以识别理解的字节码(.class) 解释 :虚拟机执行Java字节码,将字节码翻译成机器能识别的机器码 执行 :对应的机器执行二进

    2024年02月07日
    浏览(12)
  • Redis单机版搭建

    redis版本redis-5.0.7 虚拟机系统centos7.4 用户 root 下载地址 http://download.redis.io/releases/ 进入安装目录 cd /usr/local/redis (编译目录) 下载redis并解压到指定目录 wget http://download.redis.io/releases/redis-5.0.7.tar.gz tar zxvf redis-5.0.7.tar.gz cd redis-5.0.7/ 编译安装redis cd /usr/local/redis/redis-5.0.7 make make

    2024年02月07日
    浏览(11)
  • zookeeper单机版的搭建

    zookeeper单机版的搭建

    1.解压压缩包 [root@localhost export]# tar -zxvf zookeeper-3.7.0-bin.tar.gz 2.创建data文件夹 [root@localhost export]# cd apache-zookeeper-3.7.0-bin/ [root@localhost apache-zookeeper-3.7.0-bin]# ls bin  conf  docs  lib  LICENSE.txt  NOTICE.txt  README.md  README_packaging.md [root@localhost apache-zookeeper-3.7.0-bin]# pwd /root/export/apache-

    2024年02月05日
    浏览(9)
  • 【Docker】Docker+Nacos+MySQL,Docker安装启动Nacos(详细讲解、全网最细),手把手教你Docker搭建nacos单机版

    【Docker】Docker+Nacos+MySQL,Docker安装启动Nacos(详细讲解、全网最细),手把手教你Docker搭建nacos单机版

    点击跳转:Docker安装MySQL、Redis、RabbitMQ、Elasticsearch、Nacos等常见服务全套(质量有保证,内容详情) 本文描述了如何用Docker安装Nacos的单机版,含单机非持久化版本和单机持久化版本 Nacos作为微服务的配置中心,无论是在开发测试和生产中,用户更希望Nacos能保存用户的配置

    2024年02月12日
    浏览(10)
  • HBase单机版安装详细步骤

    HBase单机版安装详细步骤

    目录 一、安装HBase前置环境 1.jdk 2.hadoop 3.zookeeper 二、安装HBase步骤 (一)解压 (二)修改文件名 (三)修改配置文件 (四)配置HBase的环境变量 (五)启动HBase 1.启动hadoop 2.启动zookeeper 3.启动hbase 4.jps出现HMaster和HRegionServer 5.HBase的WebUI (六)HBase的逻辑结构: (七)HBase基本命令  1.进入HBase

    2024年02月07日
    浏览(9)
  • 搭建单机版FastDFS分布式文件存储系统

    搭建单机版FastDFS分布式文件存储系统

    1、下载FastDFS安装包和依赖包 https://codeload.github.com/happyfish100/libfastcommon/tar.gz/V1.0.43 https://codeload.github.com/happyfish100/fastdfs/tar.gz/V6.06 https://codeload.github.com/happyfish100/fastdfs-nginx-module/tar.gz/V1.22 注:可以使用window浏览器(下载后需要上传到服务器上),也可以使用linux的curl命令 2、

    2024年02月09日
    浏览(8)
  • 搭建单机版K8S运行Flink集群

    环境要求 操作系统: CentOS 7.x 64位 Kubernetes版本:v1.16.2 Docker版本:19.03.13-ce Flink版本:1.14.3 使用中国YUM及镜像源  1.安装Kubernetes: 1.1 创建文件:/etc/yum.repos.d/kubernetes.repo,内容如下: 1.2  执行安装命令:  1.3 启动kubelet服务并设置开机自启: 2.安装Docker: 2.1 创建文件:

    2023年04月26日
    浏览(7)
  • Python pygame 实现游戏 彩色 五子棋 详细注释 附源码 单机版

    Python pygame 实现游戏 彩色 五子棋 详细注释 附源码 单机版

    之前学python的时候 写了个游戏来练手 用的是 pygame 没有别的依赖 只用了一两百行的代码就实现了 整体来说功能并不算完整 这个项目是在大学的时候 偶然一个机遇交一个小朋友Python时 小朋友大概10多岁 正在打算上初一 小朋友分非常非常非常聪明!!! 当时给他讲东西 他很

    2024年02月12日
    浏览(7)
  • HBase【部署 01】CentOS 7.5 部署 hbase-2.4.5 单机版standalone模式(详细安装+配置+增删改查测试脚本)(附开源镜像站地址)

    HBase【部署 01】CentOS 7.5 部署 hbase-2.4.5 单机版standalone模式(详细安装+配置+增删改查测试脚本)(附开源镜像站地址)

    HBase的 官网 内容还是挺多的,下载安装包还是使用 清华大学开源软件镜像站 会快一些 ⚡️ 本文的安装文件为:hbase-2.4.5-bin.tar.gz HBase 是一个构建在 Hadoop 文件系统之上的面向列的数据库管理系统。运行时不仅需要 Hadoop 还依赖 JDK 环境,HBase 2.0+ 以上版本不再支持 JDK 1.7 ,需

    2024年04月11日
    浏览(7)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包