Ambari自动部署hadoop

这篇具有很好参考价值的文章主要介绍了Ambari自动部署hadoop。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、Ambari介绍

Apache Ambari项目旨在通过开发用于配置,管理和监控Apache Hadoop集群的软件来简化Hadoop管理.
Ambari提供了一个由RESTful API支持的直观,易用的Hadoop管理Web Ul。
Ambari使系统管理员能够:

提供Hadoop集群

 Ambari提供了跨任意数量的主机安装Hadoop服务的分步向导
Ambari处理集群的Hadoop服务配置
管理Hadoop集群
Ambari提供集中管理,用于在整个集群中启动,停止和重新配置Hadoop服务监控Hadoop集群
Ambari提供了一个仪表板,用于监控Hadoop集群的运行状况和状态
Ambari利用Ambari指标系统进行指标收集
Ambari利用Ambari Alert Framework进行系统警报,并在需要您注意时通知您(例如,节点出现故障剩余磁盘空间不足等)。

Ambari使应用程序开发人员和系统集成商能够

使用Ambari RESTfulAPI轻松将Hadoop配置,管理和监控功能集成到自己的应用程序中

2、架构

Ambari本身是一个分布式架构软件,主要由两部分组成:Ambari Server和Ambari Agent。用户通过Ambari Server通知Ambari Agent安装对应的软件,Agent会定时发送各个机器每个软件模块的状态给Server,最终这些状态信息会呈现给Ambari的GU1,方便用户了解到集群中各组件状态,做出相应的维护策略。

官网有部署文档

3、环境准备

3.1、硬件环境

系统
centos7.6        数量:7台
 硬件        CPU:1G        MEM : 2G        Disk:越大越好,最低不能低于所采集的数据量

3.2、ip分配

Ambari自动部署hadoop

 3.3、多机互信

[root@localhost ~]# ssh-keygen -t rsa -f /root/.ssh/id_rsa -N ' '

Ambari自动部署hadoop因为sshd_config文件中有公钥认证规定 authorized_keys

Ambari自动部署hadoop

 修改公钥

[root@localhost ~]# cd /root/.ssh

[root@localhost .ssh]# Is
id_rsa id_rsa.pub known_hosts
[root@localhost .ssh]# cp id_rsa.pub authorized_keys
[root@localhost .ssh]# Is

authorized_keys id_rsa id_rsa.pub  known_hosts

[root@localhost .ssh]# rm -rf known_hosts

删除known_hosts是因为里面存储的是主机域名信息

用for循环把公钥复制到其他服务器
[root@localhost ~]# for i in 10 20 30 40 50 60;

do

scp -r /root/.ssh 192.168.122.$i:/root;

done

3.4、主机名及主机域名解析

[root@localhost ~]# hostnamectl set-hostname ambari-server .a.com
[root@localhost ~]# hostnamectl set-hostname hd1.a.com

域名解析在/etc/hosts文件中需要配置域名 最好加上一个名称

Ambari自动部署hadoop

 3.5、时间同步、firewalld、selinux状态

1、时间同步

编辑定时任务,每个小时时同步一次windows主机的时间

crontab -e

0 */1 * * *        ntpdate time.windows.com

2、firewalld

查看所有节点防火墙的状态

[root@localhost ~]# firewall-cmd --state

not running

3、selinux

查看所有节点selinux的状态

        getenforce

Disabled

3.6、安装jdk

[root@ambari-server ~]# cp -r jdk1.8.0_191 /usr/local/jdk

[root@ambari-server ~]# for i in hd{1..6};

do

scp -r jdk1.8.0_191 $i:/usr/local/jdk;

done

修改环境变量

#查看文件中新增的两条信息
[root@localhost ~]# tail -2 /etc/profile

export JAVA_HOME=/usr/local/jdk

export PATH=${JAVA_HOME}/bin:$PATH
[root@localhost ~]# source /etc/profile

最后安装数据库就行

3.7、创建ambari数据库

agent把数据汇报server,存在数据库里面。还有hadoop集群状态和监控数据

Ambari自动部署hadoop

 给服务器授权访问ambri数据库,%是授权所有节点不包括本机访问数据库

Ambari自动部署hadoop

 数据库都是安装在ambari服务器上的

Ambari自动部署hadoop

 验证必须登录主机ambari-server.a.com上

3.8、安装数据库连接工具

[root@localhost ~]#yum -y install mysql-connector-java


3.9、安装httpd

安装http是为了在本地部署ambari
[root@localhost ~]# yum install httpd

[root@localhost ~]# systemctl enable httpd

ambari的部署资源最少也是10个G,必须df -h 查看磁盘空间够不够

资源是从跳板机拷贝到ambari服务器

宿主机上面准备好的HDP源及Ambari源复制到/var/www/html

Ambari自动部署hadoop

解压已获取软件资源至/var/www/html及/var/www/html

[root@localhost ~]#tar xf ambari-2.6.1.0-centos7.tar,gz -C /var/www/html

[root@localhost ~]#tar xf HDP-2.6.4.0-centos7-rpm.tar.gz -C /var/www/html

[root@localhost ~]#tar xf HDP-UTILS-1.1.0.22-centos7.tar.gz -C /var/ww/html

[root@localhost ~]#tar xf HDP-GPL-2.6.4.0-centos7-rpm.tar.gz -C /var/www/html

3.10、安装yum源

第一步:拷贝本地的repo,也可以用官网的

Ambari自动部署hadoop

 ambari.repo是安装agent和server的

第二步:分别配置ambari.repo和hdp.repo,只需要修改ambari-server域名即可

Ambari自动部署hadoop

 第三步:把repo配置拷贝到其他节点

Ambari自动部署hadoop

 第四步、部署ambari

Ambari自动部署hadoop

 直接在ambari-server安装yum -y ambari-server

其他节点安装ambari-agent即可

初始化ambari-server

初始化前导入ambari-server

Ambari自动部署hadoop

初始化ambari-server

Ambari自动部署hadoop

 初始化失败可以重新初始化ambari-server resetAmbari自动部署hadoop

启动ambari-server

Ambari自动部署hadoop

 如果8080端口是开启的一般来说不会报错,还可以设置开机自启动:chkconfig ambari-server on

访问ambari也是通过8080端口,用户名和密码都是admin 

ambari-agent配置及启动

ambari-agent启动前必须查看openssl的版本是否过低,rpm -qa |grep openssl  必须在1.0.2以上

禁用https验证方式(所有agent主机)

Ambari自动部署hadoop

 把配置文件上传到其他服务器

Ambari自动部署hadoop

 修改ambari-agent配置文件的【security】选项

Ambari自动部署hadoop

 scp上传本地配置文件到其他服务器Ambari自动部署hadoop

 启动所有的ambari-agent

Ambari自动部署hadoop

 文章来源地址https://www.toymoban.com/news/detail-510847.html

4、部署hadoop

第一步:创建hadoop集群

Ambari自动部署hadoop

 第二步:选择安装hadoop集群的包组

Ambari自动部署hadoop

 第三步:配置yum源

把乌班图等无关的yum源remove,因为centos是redhat的复刻版本(红帽发行6个月之后就会复刻一版centos)

Ambari自动部署hadoop

 cat /etc/yum.repos.d/hdp.repo

Ambari自动部署hadoop

第四步:配置安装选项

使用完全合格域名部署 hadoop集群Ambari自动部署hadoop

 配置ssh私钥免密

Ambari自动部署hadoop

Ambari自动部署hadoop

 第五步:注册并确认部署hadoop集群的主机信息

installing状态是在安装hadoop-agent

registering状态是在注册hadoop-server

success才是成功部署hadoop集群

第六步:选择文件系统和勾选服务

Ambari自动部署hadoop

 zookeeper和Ambari Metrics都是监控集群的Ambari自动部署hadoop

 Ambari自动部署hadoop

 第七步:选主、从服务器并配置

选主

Ambari自动部署hadoop

 选从

Ambari自动部署hadoop

 第八步:服务器配置

设置密码

Ambari自动部署hadoop

 Ambari自动部署hadoop

 最后点击deploy部署

5、验证

所有已安装hdfs客户端的主机均可进行验证

切换用户 hdfs调用yarn框架中的jar包进行词频统计测试hadoop集群是否可用

Ambari自动部署hadoop

 Ambari自动部署hadoop

 

到了这里,关于Ambari自动部署hadoop的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【项目部署-apache】windows系统下apache部署django+channels

    1、原生的python3.8.5(默认安装,不更改安装目录),不要使用Anaconda做虚拟环境。 2、在windows系统下需要,mod_wsgi 模块。 创建虚拟环境:(在当前目录下创建名为 gzgs_alert 的虚拟环境) 激活gzgs_alert 虚拟环境,安装mod_wsgi: whl文件下载: 复制文件到虚拟环境的Scripts目录下: cmd进

    2024年04月26日
    浏览(37)
  • Apache DolphinScheduler 如何实现自动化打包+单机/集群部署?

    Apache DolphinScheduler 是一款开源的分布式任务调度系统,旨在帮助用户实现复杂任务的自动化调度和管理。DolphinScheduler 支持多种任务类型,可以在单机或集群环境下运行。下面将介绍如何实现 DolphinScheduler 的自动化打包和单机/集群部署。 所需环境:maven、jdk 执行以下shell完成

    2024年02月09日
    浏览(39)
  • 手把手教你在linux中部署hadoop以及hadoop功能介绍

    我们在学大数据的时候hadoop是躲避不开的地方,所以如何在linux中部署hadoop,下面就是手把手教你如何部署hadoop。你只要复制粘体,然后按enter键就可以了。 准备:   安装Linux版本的服务器。可以参考中前半部分安装服务器的内容即可:VM部署CentOS并且设置网络_ZeroMaster的博客

    2024年02月03日
    浏览(60)
  • idea运行spark项目报错:org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0

    使用idea运行spark项目wordcount出现此类错误:org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0 解决方法如下: 1.确保安装了hadoop。我使用的spark和hadoop版本都是3.3.2,配置环境变量HADOOP_HOME=D:hadoop-3.3.2,还要注意Path变量要加入%HADOOP_HOME%bin。 2.还要安装hadoop windows的winuti

    2024年02月12日
    浏览(39)
  • 1、hadoop3.1.4简单介绍及部署、简单验证

    1、hadoop3.1.4简单介绍及部署、简单验证 2、HDFS操作 - shell客户端 3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java 4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及H

    2024年02月07日
    浏览(53)
  • Hadoop3.0大数据处理学习1(Haddop介绍、部署、Hive部署)

    学习步骤: 三大组件的基本理论和实际操作 Hadoop3的使用,实际开发流程 结合具体问题,提供排查思路 开发技术栈: Linux基础操作、Sehll脚本基础 JavaSE、Idea操作 MySQL Hadoop是一个适合海量数据存储与计算的平台。是基于Google的GoogleFS、Map Reduce、BigTable实现的。 移动数据:数据

    2024年02月08日
    浏览(48)
  • Ambari+Bigtop大数据平台安装部署指南(Centos7)一

    安装部署分为以下五个大步骤 1.资源准备 2.操作系统配置 3.数据库配置 4.ambari配置 5.bigtop组件安装 all 表示全部主机都要执行 server表示ambari-server安装的主机执行 ${key}表示需要根据实际情况修改的变量,例如 $ {server.ip} 应替换成server所在主机的ip,所有变量均会标红 需要准备

    2024年02月07日
    浏览(43)
  • 【Ambari】HDP单机自动化安装(基础环境和MySQL脚本一键安装)

    🦄 个人主页 ——🎐开着拖拉机回家_Linux,大数据运维-CSDN博客 🎐✨🍁 🪁🍁🪁🍁🪁🍁🪁🍁 🪁🍁🪁🍁🪁🍁🪁 🪁🍁🪁🍁🪁🍁🪁🍁🪁🍁🪁🍁 感谢点赞和关注 ,每天进步一点点!加油! 目录 一、版本信息 1.1大数据组件版本 1.2Apache Components 1.3Databases支持版本

    2024年02月05日
    浏览(38)
  • Apache DolphinScheduler 3.1.8 保姆级教程【安装、介绍、项目运用、邮箱预警设置】轻松拿捏!

    Apache DolphinScheduler 是一个分布式易扩展的可视化 DAG 工作流任务调度开源系统。适用于企业级场景,提供了一个可视化操作任务、工作流和全生命周期数据处理过程的解决方案。 Apache DolphinScheduler 旨在解决复杂的大数据任务依赖关系,并为应用程序提供数据和各种 OPS 编排中

    2024年01月16日
    浏览(37)
  • 前端项目自动化部署

    一、Git仓库管理项目 二、购买云服务器 三、搭建服务器环境(重点) 四、Jenkins进行自动化部署(重点) 提示:本地项目自动化部署流程,如下图 一、Git仓库管理项目 Git的安装和配置在这里就不做说明了 1、首先在Git仓库中创建一个仓库,用来保存本地项目,这里使用Git

    2024年02月15日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包