hadoop3.3.1单机版环境搭建详细流程记录

这篇具有很好参考价值的文章主要介绍了hadoop3.3.1单机版环境搭建详细流程记录。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、在centos7中创建必要的目录;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

2、上传JDK安装包到tools目录;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

3、解压JDK到/opt/server/目录;

tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/server/

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

4、“vim:未找到命令”的解决办法;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

安装vim即可;

yum install -y vim

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

5、JDK配置环境变量;

vim /etc/profile

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

按“o”进入编辑模式;

#JDK环境变量
export JAVA_HOME=/opt/server/jdk1.8.0_221
export PATH=${JAVA_HOME}/bin:$PATH

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

编辑完内容后,“esc”-->“:”-->"wq"-->回车,执行保存并退出。

6、刷新环境变量,使其生效;

source /etc/profile

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

7、配置hosts;

vim /etc/hosts

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

点"i"或者"o"进入编辑模式;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

编辑完后,点"Esc"-->":"-->"wq",回车,保存退出。

8、配置免密;

生成公钥和私钥;(一直点下去即可)

ssh-keygen -t rsa

授权是单向的;

8.1、方法一:

进入 ~/.ssh 目录下,查看生成的公匙和私匙,并将公匙写入到授权文件;
cd ~/.ssh

cat id_rsa.pub >> authorized_keys

chmod 600 authorized_keys

8.2、方法二:

# 本机公钥拷贝到102服务器
ssh-copy-id hadoop102

# 回车,确认102密码后生效
方法二注意:切换用户后,需要重新配置免密。

9、上传hadoop3.3.1并解压;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

10、配置hadoop;

进入/opt/server/hadoop-3.3.1/etc/hadoop/目录下,
hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

(1)、修改hadoop-env.sh文件,设置JDK的安装路径;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop
vim hadoop-env.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

(2)、修改core-site.xml文件,分别指定hdfs 协议文件系统的通信地址及hadoop 存储临时文件的目录 (此目录不需要手动创建);

vim core-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <!--指定 namenode 的 hdfs 协议文件系统的通信地址-->
        <name>fs.defaultFS</name>
        <value>hdfs://server:8020</value>
    </property>
    <property>
        <!--指定 hadoop 数据文件存储目录-->
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/data</value>
    </property>
</configuration>

(3)、修改hdfs-site.xml,指定 dfs 的副本系数;

vim hdfs-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <!--由于我们这里搭建是单机版本,所以指定 dfs 的副本系数为 1-->
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

(4)、修改workers文件,配置所有从属节点;

vim workers

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

server

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

11、关闭防火墙;

如果不关闭防火墙,可能导致无法访问 Hadoop Web UI 界面;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

# 查看防火墙状态
sudo firewall-cmd --state
# 关闭防火墙:
sudo systemctl stop firewalld
# 禁止开机启动
sudo systemctl disable firewalld

12、格式化namenode;

初始化, 第一次启动 Hadoop 时需要进行初始化,进入 /opt/server/hadoop-3.3.1/bin 目录下,执
行以下命令:

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoophadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoophadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

13、Hadoop 3中不允许使用root用户来一键启动集群,需要配置启动用户;

进入目录“/opt/server/hadoop-3.3.1/sbin”,编辑start-dfs.sh、stop-dfs.sh,在顶部加入以下内容;

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

start-dfs.sh如下:

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

stop-dfs.sh如下:

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

14、启动hdfs;

进入/opt/server/hadoop-3.3.1/sbin/目录下,
./start-dfs.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

启动成功;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

15、查看 Web UI 界面,端口为 9870;

http://192.168.12.100:9870/

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

16、配置hadoop环境变量,方便启动;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

#Hadoop环境变量
export HADOOP_HOME=/opt/server/hadoop-3.3.1
export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin;

执行“source /etc/profile”刷新,使其生效。 

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

17、yarn环境搭建;

(1)、配置mapred-site.xml;

进入/opt/server/hadoop-3.3.1/etc/hadoop/目录;

vim mapred-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
</configuration>

(2)、配置yarn-site.xml;

vim yarn-site.xml

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

<configuration>
    <property>
        <!--配置 NodeManager 上运行的附属服务。需要配置成 mapreduce_shuffle 后才可以在Yarn 上运行 MapRedvimuce 程序。-->
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

18、hadoop3配置root启动yarn权限;

进入“/opt/server/hadoop-3.3.1/sbin/”目录;

# start-yarn.sh stop-yarn.sh在两个文件顶部添加以下内容
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
vim start-yarn.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoophadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

vim stop-yarn.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

19、启动yarn;

进入“/opt/server/hadoop-3.3.1/sbin/”目录;

./start-yarn.sh

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

20、访问yarn的web管理界面;

http://192.168.12.100:8088/

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

21、“Permission denied: user=dr.who, access=WRITE, inode="/":root:supergroup:drwxr-xr-x”;

创建目录、上传文件失败。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

这里“dr.who”表示的是在网页端访问hdfs时的默认用户名,而真实是不存在的,它的权限很小,为了保证数据安全,无法访问其他用户的数据。修改默认登录用户就可解决此处权限问题。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

修改“/opt/server/hadoop-3.3.1/etc/hadoop/”目录下的core-site.xml;

添加下面属性;

    <property>
        <!--默认登录用户-->
        <name>hadoop.http.staticuser.user</name>
        <value>root</value>
    </property>

重启hdfs服务即可。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

创建目录成功;

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

22、hdfs上传文件失败,“Couldn't upload the file xxxxxxxxxxx.csv.”;

原因:客户端web无法解析server域名到指定ip引起的。

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

解决方法:

在本地win10配置host对虚拟机地址的访问;

192.168.12.100 server

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop

hadoop3.3.1单机版环境搭建详细流程记录,大数据,hadoop,linux,大数据,hadoop文章来源地址https://www.toymoban.com/news/detail-700412.html

到了这里,关于hadoop3.3.1单机版环境搭建详细流程记录的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • hadoop伪分布式集群的安装(不是单机版)

    三台虚拟机,关闭防火墙,关闭selinux 查看防火状态 systemctl status firewalld 暂时关闭防火墙 systemctl stop firewalld 永久关闭防火墙 systemctl disable firewalld 查看 selinux状态 getenforce 暂时关闭 selinux setenforce 0 永久关闭 selinux 在/etc/selinux/config文件中将SELINUX改为disabled   三台主机 根据自己

    2023年04月14日
    浏览(86)
  • 从0到一搭建Kafka-单机版-通过单机版zookeeper配置

    教程https://www.bilibili.com/video/BV1t34y1G7NW/ 首先得找到一些基本概念: Java 程序从源代码到运行主要有三步: 编译 :将我们的代码(.java)编译成虚拟机可以识别理解的字节码(.class) 解释 :虚拟机执行Java字节码,将字节码翻译成机器能识别的机器码 执行 :对应的机器执行二进

    2024年02月07日
    浏览(38)
  • Redis单机版搭建

    redis版本redis-5.0.7 虚拟机系统centos7.4 用户 root 下载地址 http://download.redis.io/releases/ 进入安装目录 cd /usr/local/redis (编译目录) 下载redis并解压到指定目录 wget http://download.redis.io/releases/redis-5.0.7.tar.gz tar zxvf redis-5.0.7.tar.gz cd redis-5.0.7/ 编译安装redis cd /usr/local/redis/redis-5.0.7 make make

    2024年02月07日
    浏览(34)
  • zookeeper单机版的搭建

    1.解压压缩包 [root@localhost export]# tar -zxvf zookeeper-3.7.0-bin.tar.gz 2.创建data文件夹 [root@localhost export]# cd apache-zookeeper-3.7.0-bin/ [root@localhost apache-zookeeper-3.7.0-bin]# ls bin  conf  docs  lib  LICENSE.txt  NOTICE.txt  README.md  README_packaging.md [root@localhost apache-zookeeper-3.7.0-bin]# pwd /root/export/apache-

    2024年02月05日
    浏览(32)
  • 【Docker】Docker+Nacos+MySQL,Docker安装启动Nacos(详细讲解、全网最细),手把手教你Docker搭建nacos单机版

    点击跳转:Docker安装MySQL、Redis、RabbitMQ、Elasticsearch、Nacos等常见服务全套(质量有保证,内容详情) 本文描述了如何用Docker安装Nacos的单机版,含单机非持久化版本和单机持久化版本 Nacos作为微服务的配置中心,无论是在开发测试和生产中,用户更希望Nacos能保存用户的配置

    2024年02月12日
    浏览(34)
  • HBase单机版安装详细步骤

    目录 一、安装HBase前置环境 1.jdk 2.hadoop 3.zookeeper 二、安装HBase步骤 (一)解压 (二)修改文件名 (三)修改配置文件 (四)配置HBase的环境变量 (五)启动HBase 1.启动hadoop 2.启动zookeeper 3.启动hbase 4.jps出现HMaster和HRegionServer 5.HBase的WebUI (六)HBase的逻辑结构: (七)HBase基本命令  1.进入HBase

    2024年02月07日
    浏览(47)
  • 搭建单机版FastDFS分布式文件存储系统

    1、下载FastDFS安装包和依赖包 https://codeload.github.com/happyfish100/libfastcommon/tar.gz/V1.0.43 https://codeload.github.com/happyfish100/fastdfs/tar.gz/V6.06 https://codeload.github.com/happyfish100/fastdfs-nginx-module/tar.gz/V1.22 注:可以使用window浏览器(下载后需要上传到服务器上),也可以使用linux的curl命令 2、

    2024年02月09日
    浏览(37)
  • 搭建单机版K8S运行Flink集群

    环境要求 操作系统: CentOS 7.x 64位 Kubernetes版本:v1.16.2 Docker版本:19.03.13-ce Flink版本:1.14.3 使用中国YUM及镜像源  1.安装Kubernetes: 1.1 创建文件:/etc/yum.repos.d/kubernetes.repo,内容如下: 1.2  执行安装命令:  1.3 启动kubelet服务并设置开机自启: 2.安装Docker: 2.1 创建文件:

    2023年04月26日
    浏览(31)
  • Python pygame 实现游戏 彩色 五子棋 详细注释 附源码 单机版

    之前学python的时候 写了个游戏来练手 用的是 pygame 没有别的依赖 只用了一两百行的代码就实现了 整体来说功能并不算完整 这个项目是在大学的时候 偶然一个机遇交一个小朋友Python时 小朋友大概10多岁 正在打算上初一 小朋友分非常非常非常聪明!!! 当时给他讲东西 他很

    2024年02月12日
    浏览(26)
  • HBase【部署 01】CentOS 7.5 部署 hbase-2.4.5 单机版standalone模式(详细安装+配置+增删改查测试脚本)(附开源镜像站地址)

    HBase的 官网 内容还是挺多的,下载安装包还是使用 清华大学开源软件镜像站 会快一些 ⚡️ 本文的安装文件为:hbase-2.4.5-bin.tar.gz HBase 是一个构建在 Hadoop 文件系统之上的面向列的数据库管理系统。运行时不仅需要 Hadoop 还依赖 JDK 环境,HBase 2.0+ 以上版本不再支持 JDK 1.7 ,需

    2024年04月11日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包