大数据第一步-Mac安装Hadoop3

这篇具有很好参考价值的文章主要介绍了大数据第一步-Mac安装Hadoop3。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.安装工作

1.1 准备工作

前提是把jJDK8安装好,hadoop3.x最低需要jdk8。

然后打开共享把远程登陆打开,不打开说是后面会报错,

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

到终端输入命令:ssh localhost

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

生成新的keygen否则后面会报错 Permission denied 命令:ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa  

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

注册关键字,命令为如下:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 
 chmod 0600 ~/.ssh/authorized_keys

1.2 安装hadoop

安装hadoop,命令为我用的是brew,没有的话可以自行搜索先安装这个,很简单,然后安装Hadoop,命令为:brew install hadoop,如果出现如下的hadoop就代表安装好了,这里我安装了很多遍网不好的时候包下载不下来,选择wifi足的地方,哈哈哈!

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

此时可以在终端输入 :hadoop,我的jdk环境和hadoop没设置,报错如下ERROR: JAVA_HOME @@HOMEBREW_JAVA@@ does not exist.。 

1.3jdk环境配置

你安装了 JDK,你需要设置 JAVA_HOME 环境变量。在终端中输入以下命令来查找 JDK 的安装路径:命令为:/usr/libexec/java_home,我的路径如下:

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

编辑你的 ~/.bash_profile 文件,可以使用以下命令来打开该文件:命令为:vi ~/.bash_profile

在打开的文件中,添加以下行来设置 JAVA_HOME 环境变量(将路径替换为你自己的安装路径)

export JAVA_HOME=/Library/Internet Plug-Ins/JavaAppletPlugin.plugin/Contents/Home

保存并关闭文件。然后执行以下命令来使修改生效:命令为:source ~/.bash_profile

然后再执行hadoop ,不报这个错了

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

1.4 hadoop配置文件配置

我hadoopd安装的目录在这,在安装hadoop时控制台会告诉你hadoop安装在哪里,我的路径你这个 /opt/homebrew/Cellar/hadoop/3.3.6/ ,从这里边找到配置文件进行修改,

我的配置文件目录如下: /opt/homebrew/Cellar/hadoop/3.3.6/libexec/etc/hadoop下

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

 配置hadoop-env.sh配置文件,可以用vi指令,也可以打开文件更改,找到export jJAVA_HOME把#号去掉,将java的环境变量加进来,注意加引号,我就是没加引号一直报环境变量的错误,哎.

 export JAVA_HOME="/Library/Internet Plug-Ins/JavaAppletPlugin.plugin/Contents/Home"

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

找到core-site.xml文件,添加如下配置,注意(fs.defaultFS的value配置的值,代码要访问hdfs必须和这个ip匹配,我因为是另一个机器访问所以这里要配上本机ip,端口号的使用也要能对身上,我后期使用时一直报连接拒绝就是这里的问题,端口配置的和使用的不一样,这里写错了

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
     <name>hadoop.tmp.dir</name>
     <value>file:/opt/homebrew/Cellar/hadoop/3.3.6/libexec/tmp</value>
  </property>
  <property>
     <name>fs.defaultFS</name>
     <value>hdfs://192.168.1.4:8082</value>
  </property>
</configuration>

HDFS的配置,在hdfs-site.xml里配置了临时存储,与访问权限

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
         <name>dfs.replication</name>
         <value>3</value>
    </property>
    <property> 
         <name>dfs.namenode.name.dir</name>
         <value>file:/opt/homebrew/Cellar/hadoop/3.3.6/libexec/tmp/dfs/name</value>
    </property>
    <property>
         <name>dfs.namenode.data.dir</name>
         <value>file:/opt/homebrew/Cellar/hadoop/3.3.6/libexec/tmp/dfs/data</value>
    </property>
    <property>  
         <name>dfs.permissions</name>  
         <value>false</value>  
    </property>

</configuration>

mapred-site.xml配置,这里的配置主要是mapReduce的。

<!-- Put site-specific property overrides in this file. -->

<configuration>
     <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
     </property>
</configuration>

yarn-site.xml配置如下:

<configuration>

<!-- Site specific YARN configuration properties -->

 <property> 
        <name>yarn.nodemanager.aux-services</name> 
        <value>mapreduce_shuffle</value> 
    </property>
    <property> 
        <name>yarn.nodemanager.env-whitelist</name>
                  <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
</configuration>

配置文件完毕!

1.5 hadoop启动

对文件系统进行格式化,先进入到 /usr/local/Cellar/hadoop/3.2.1_1/libexec/bin 路径中,在终端输入如下命令:hdfs namenode -format

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

得到图片的信息代表成功了!

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs
然后 cd /opt/homebrew/Cellar/hadoop/3.3.6/sbin 到此目录下,启动hadoop,执行命令:./start-dfs.sh     

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

页码输入:http://localhost:9870,出现如下结果:我们可以通过浏览器访问http://你的容器IP:9870/来查看 HDFS 面板以及详细信息

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs 

 相同目录下执行命令:./start-yarn.sh        启动yarn,hadoop的调度系统

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

网页输入:http://localhost:8088,出现如下界面:

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

 到此hadoop安装完成!

可以用 hdfs dfsadmin -report 命令来获取有关集群状态的详细信息。

关闭hadoop命令为:stop-dfs.sh

1.6 问题一,native不存在

安装完操作hdfs,比如查看文件 ,命令为:hadoop fs -ls /

结果会报这个,说是不能加载hadoop的native,

2023-07-17 17:13:28,448 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

网上搜索找到了原因,是因为我采用的brew是没有这个/lib/native环境的,要么找对应版本下载,要么需要到官网下载编译,我是在git上找到的,虽然和我的版本差的多,但能用,

找到目录以后直接放入,配置文件配置一下即可,我放到了此目录下: /opt/homebrew/Cellar/hadoop/    

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

 执行命令:vi ~/.bash_profile 

添加如下这一行,路径为你自己放的路径

export HADOOP_OPTS="-Djava.library.path=/opt/homebrew/Cellar/hadoop/lib/native"

然后执行这个命令:source ~/.bash_profile

再执行如下这个命令,此命令为查看Hadoop里的hdf的相对文件,如果里边没有文件为空,里边有文件则显示文件夹以及文件数量

hadoop fs -ls /     

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

 1.7 问题二,Datanode没有启动起来

测试上传文件输入如下命令:

# 上传文件
hadoop fs -put hello.txt /hello/

 报这个错的主要原因是因为Datanode没有启动起来,你可以用jps这个命令查看下,如果没有Datanode进程就代表没启动起来。

There are 0 datanode(s) running and 0 node(s) are excluded in this operation.

jps 看一直没有DataNode,/opt/homebrew/Cellar/hadoop/3.3.6/libexec/tmp/data下的current文件删除,关闭(stop-dfs.sh)启动下(start-dfs.sh)就有了 。

before

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

after

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

 在执行上传文件,就ok了,我们可以执行查看文件内容也是ok的!

# 上传文件
hadoop fs -put hello.txt /hello/

# 下载文件
hadoop fs -get /hello/hello.txt
# 输出文件内容
hadoop fs -cat /hello/hello.txt

大数据第一步-Mac安装Hadoop3,Ai与大数据,hadoop,hdfs

 文章来源地址https://www.toymoban.com/news/detail-577183.html

到了这里,关于大数据第一步-Mac安装Hadoop3的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop3.X集群安装

    服务器 运行角色 hadoop01 namenode、datanode、resourcemanager、nodemanager hadoop02         secondarynamenode、datanode、nodemanager hadoop03 datanode、nodemanager 安装包、源码包下载 https://archive.apache.org/dist/hadoop/common/hadoop-3.3.0/ 准备三台主机 hosts映射 JDK1.8安装 JDK1.8 配置ssh免密登录 ssh免密登录 创建

    2024年01月20日
    浏览(45)
  • MacOS本地安装Hadoop3

    金翅大鹏盖世英,展翅金鹏盖世雄。 穿云燕子锡今鸽,踏雪无痕花云平。 ---------------- 本文密钥:338 ----------------- 本文描述了在macbook pro的macos上安装hadoop3的过程,也可以作为在任何类linux平台上安装hadoop3借鉴。 1、准备工作 确保已安装jdk,本地已安装jdk1.8.0_221。 export JAV

    2024年02月15日
    浏览(46)
  • hadoop3.3.4安装及启动

    1.虚拟机的安装 此处我选择的是VMware,激活码可以百度搜索,安装过程比较缓慢,需要耐心等待 --------------------------------------------------------------------------------------------------------------------------------- 2.创建新的虚拟机 点击创建虚拟机,如果已经创建,导入即可 -----------------------

    2024年02月04日
    浏览(42)
  • hadoop3.3.4集群安装部署

    一、环境准备:3台centos7服务器         修改hosts(所有服务器都需要修改)           修改主机名,cdh1为主机名,根据自己定义         安装远程同步工具rsync,用于服务器间同步配置文件         设置时间同步,如果时间相差过大启动会报ClockOutOfSyncException异常,默认是

    2023年04月08日
    浏览(44)
  • hadoop3.0 非高可用安装

    伪分布式集群,不依赖zookeeper的hadoop集群 只有namenode, 和datanode, 可以有两个namenode. 没有zookeeper, 没有zkfc, 没有journalnode. 只在学习的时候使用, 生存环境不适用 . 生产环境用的高可用集群见 https://blog.csdn.net/weijiqian/article/details/137157513 关闭: 禁止开机启动: 查看状态: 注意:

    2024年04月11日
    浏览(45)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(46)
  • Hadoop3.3.6安装和配置hbase-2.5.5-hadoop3x,zookeeper-3.8.3

    vm设置 在安装过程中推荐设置root用户密码为1234方面后续操作 1.设置主机名 以hadoop3为例 2.设置固定ip hadoop1 192.168.88.201 hadoop2 192.168.88.202 hadoop3 192.168.88.203 最后执行 service network restart 刷新网卡 3.工具连接(三个机器都要设置) 4.主机映射 windows: C:WindowsSystem32driversetc 修改这个路

    2024年02月03日
    浏览(42)
  • Hadoop3.3伪分布式安装部署

    目录 引言 实验目的及准备 实验步骤 引言 Hadoop生态的搭建有本地模式、伪分布模式、集群模式(3台机器)三种安装模式,本篇文章将详细介绍Hadoop3.3的伪分布安装模式。 实验目的及准备 一、完成Hadoop3.3伪分布安装 二、在Linux中配置jdk1.8环境变量 三、配置主机的免密钥登录

    2024年02月21日
    浏览(45)
  • Hadoop(01) Hadoop3.3.6安装教程,单机/伪分布式配置

    在安装 Hadoop 3.3.6 前,需要满足以下前置条件: Java Development Kit (JDK):Hadoop 是用 Java 编写的,因此需要安装并配置适当版本的 JDK。Hadoop 3.3.6 建议使用 JDK 8 或更高版本。确保正确安装 JDK,并设置 JAVA_HOME 环境变量。 SSH:Hadoop 集群中的节点需要通过 SSH 进行通信和管理。确保在

    2024年02月06日
    浏览(45)
  • Adobe进军AI第一步——Firefly试用体验

    在 关于人工智能讨论度高居不下的今天 , 各个行业的领路企业也纷纷不甘落后。Adobe作为媒体界的行业标杆,就在近期推出了自己的人工智能图像应用——萤火虫firefly。虽然这只萤火虫刚刚“起飞”,它已经展现的文字生图和能力算是及格。我分别在网页版和PS中尝试了f

    2024年01月18日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包