linux安装hadoop详细步骤

这篇具有很好参考价值的文章主要介绍了linux安装hadoop详细步骤。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

以下是在Linux系统上安装Hadoop的详细步骤:

  1. 下载Hadoop文件
    在Hadoop官方网站上下载最新的稳定版本的Hadoop文件。下载地址:https://hadoop.apache.org/releases.html

  2. 解压Hadoop文件
    打开终端,使用以下命令将下载的Hadoop文件解压到指定目录:

    tar -xzvf hadoop-X.X.X.tar.gz -C /usr/local/
    
  3. 配置环境变量
    打开终端,使用以下命令打开配置文件:

    sudo nano ~/.bashrc
    

    在配置文件里添加以下内容:

    # Hadoop相关路径配置
    export HADOOP_HOME=/usr/local/hadoop-X.X.X
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    

    保存并关闭配置文件,然后运行以下命令使配置生效:

    source ~/.bashrc
    
  4. 配置Hadoop
    进入Hadoop安装目录,并编辑配置文件:

    cd /usr/local/hadoop-X.X.X/etc/hadoop/
    sudo nano hadoop-env.sh
    

    将以下代码行:

    export JAVA_HOME=${JAVA_HOME}
    

    修改为:

    export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
    

    保存并关闭文件。

  5. 配置Hadoop集群
    打开core-site.xml文件:

    sudo nano core-site.xml
    

    在<configuration>和</configuration>之间添加以下内容:

    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-X.X.X/tmp</value>
    </property>
    

    保存并关闭文件。

  6. 配置HDFS
    打开hdfs-site.xml文件:

    sudo nano hdfs-site.xml
    

    在<configuration>和</configuration>之间添加以下内容:

    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/namenode</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/datanode</value>
    </property>
    

    保存并关闭文件。

  7. 配置YARN
    打开yarn-site.xml文件:

    sudo nano yarn-site.xml
    

    在<configuration>和</configuration>之间添加以下内容:

    <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
    <property>
      <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
      <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>localhost</value>
    </property>
    

    保存并关闭文件。

  8. 格式化Hadoop文件系统
    运行以下命令:

    hdfs namenode -format
    
  9. 启动Hadoop集群
    运行以下命令:

    start-dfs.sh
    start-yarn.sh
    

    您可以使用以下命令检查Hadoop是否成功启动:

    jps
    

    如果一切正常,应该能够看到NameNode、DataNode、ResourceManager和NodeManager等进程。

现在,Hadoop已经成功安装在您的Linux系统上。文章来源地址https://www.toymoban.com/news/detail-804020.html

到了这里,关于linux安装hadoop详细步骤的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • minio 安装流程(linux) Centos7环境下搭建minio步骤详细教程

    一、下载安装文件     1、在home目录下创建minio文件夹     2、进入/home/minio 文件夹     3、下载文件 二、创建数据文件夹     三、创建日志文件 四、启动   如果想要修改超管账户名和密码 1、打开 /etc/profile 文件 2、在文件的最末尾加上以下信息(启动的时候看提示,新版

    2024年02月10日
    浏览(51)
  • Linux修改hadoop配置文件及启动hadoop集群详细步骤

    目录 一、配置Hadoop环境 1.查看Hadoop解压位置 2.配置环境变量 3.编辑环境变量 4.重启环境变量 5.查看Hadoop版本,查看成功就表示Hadoop安装成功了 二、修改配置文件 1.检查三台虚拟机: 2.切换到配置文件目录 3.修改 hadoop-env.sh 文件 4.修改 core-site.xml 文件 5.修改 mapred-site.xml 文件

    2024年02月03日
    浏览(41)
  • Linux 可视化管理(webmin 和 bt(宝塔)运维工具的详细安装教程:webmin 安装配置和使用,bt 宝塔 的安装配置和使用)

    目录 第十八章 webmin 和 bt(宝塔) 运维工具 18.1 webmin 安装配置和使用 18.1.1 基本介绍 18.1.2 安装 webmin配置 18.1.3 简单使用演示 18.2 bt 宝塔 的安装配置和使用 18.2.1 基本介绍 18.2.2 安装和使用 18.2.3 bt 宝塔使用介绍 18.2.4 如果 bt 的用户名,密码忘记了。使用 bt default 可以查看 18.1

    2024年02月09日
    浏览(36)
  • Hadoop2复安装过程详细步骤

    1、在vmware中更改了虚拟机的网络类型,---NAT方式,(虚拟交换机的ip可以从vmvare的edit--vertual network editor看到) 2、根据这个交换机(网关)的地址,来设置我们的客户端windows7的ip(Vmnet8这块网卡) 3、启动linux主机,修改linux系统的ip地址(通过图形界面修改),修改完成之后在

    2024年02月07日
    浏览(31)
  • Hadoop之Hive的安装配置(详细步骤)

    配置前准备 下载apache-hive-2.1.1-bin.tar.gz安装包并上传到XShell 在XShell上解压安装包 输入解压命令: 配置  1、配置环境变量 在文件末尾增加如下内容: 使环境变量生效 进入 cd /home/ZQ/apache-hive-2.1.1-bin/conf/ 2、配置hive-env.sh  如果有hive-env.sh.template文件则输入下面的命令将 hive-

    2024年02月04日
    浏览(28)
  • Linux系统安装DB2数据库的详细步骤

    1、DB2数据库的安装 一、将DB2的安装介质上传至/home目录,并解压:    tar –zxvf v9.5fp3_linuxx64_server.tar.gz 二、执行LANG=C 三、进入解压后的server目录(cd server/),执行./db2setup,步骤如下: # cd /home # tar -zxvf v9.7_linuxx64_server.tar.gz # cd server/ # ./db2setup     请额外注意:这里选择 Do

    2024年02月08日
    浏览(36)
  • VMware首次安装Hadoop详细步骤:问题&解决方式

    创建 Hadoop 用户 目录 2.1 创建Hadoop 用户(简单) 2.2 安装 Hadoop 前的准备工作(如果网络没问题就很简单) 2.2.1 更新 APT 2.2.2 安装vim编辑器 2.2.3安装 SSH 2.3 安装 Java 环境 2.4 安装Hadoop 2.4.1 安装单机Hadoop 2.4.2Hadoop伪分布式安装 2.4.2.1修改配置文件 2.4.2.2初始化文件系统 2.4.2.3启动

    2024年02月07日
    浏览(34)
  • 大数据-安装 Hadoop3.1.3 详细教程-伪分布式配置(Centos7)

    **相关资源:**https://musetransfer.com/s/q43oznf6f(有效期至2023年3月16日)|【Muse】你有一份文件待查收,请点击链接获取文件 1.检查是否安装ssh (CentOS 7 即使是最小化安装也已附带openssh 可跳过本步骤) 若已安装进行下一步骤 若未安装 请自行百度 本教程不做过多讲解 2.配置ss

    2023年04月08日
    浏览(31)
  • Hadoop大数据平台搭建(超详细步骤)

    相关软件下载链接: Xshell:家庭/学校免费 - NetSarang Website Xftp:家庭/学校免费 - NetSarang Website Xshell与Xftp官网:XSHELL - NetSarang Website Jdk:百度网盘 请输入提取码  提取码:jdhp Hadoop:百度网盘 请输入提取码   提取码:jdhp 需要配置好的虚拟机与相关环境的,可以点击我的这篇

    2023年04月12日
    浏览(71)
  • 【大数据开发运维解决方案】超级详细的VMware16安装Redhat8&挂载镜像配置本地yum源&安装unixODBC教程

    今儿同事反馈在Informatica对接达梦数据库的过程中,需要安装ODBC,官方推荐的是ODBC2.3.0,同事使用的操作系统环境为redhat8.6,其在 ./configure 编译ODBC过程中出现问题,一波操作后安装失败,博主简单分析错误日志后发现编译过程中需要安装并更新一些gcc编译器,他使用的服务器

    2024年02月03日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包