【黑马2023大数据实战教程】使用3台虚拟机搭建大数据集群详细步骤

这篇具有很好参考价值的文章主要介绍了【黑马2023大数据实战教程】使用3台虚拟机搭建大数据集群详细步骤。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.设置三台Linux虚拟机的主机名和固定IP

忘了记录,原视频链接在这:2023新版黑马程序员大数据入门到实战教程,大数据开发必会的Hadoop、Hive,云平台实战项目全套一网打尽

2.在Linux系统以及本机系统中配置了主机名映射

配置大数据集群主机映射时:
vim /etc/hosts
回车后按shift+A开始键入模式

192.168.88.130 node1
192.168.88.102 node2
192.168.88.103 node3

然后Esc,输入 :wq保存。
配置ssh免密登录:
每台都执行:ssh-keygen -t rsa -b 4096,一路回车;
每台都执行ssh-copy-id node1 -> yes 密码
,node2,node3同理

3.配置了三台服务器之间root用户的SSH免密互通

创建hadoop用户并设置免密登录:
useradd hadoop
passwd hadoop
切换到hadoop: su - hadoop
创建私钥系统:
ssh-keygen -t rsa -b 4096
ssh-copy-id node1
同上三个node都配

4.配置jdk环境

su - root
mkdir -p /export/server
传jdk的压缩包输入:rz -bey,选择jdk包等待上传,解压缩
tar -zxvf jdk-8u361-linux-x64.tar.gz -C /export/server/
配置jdk软链接 ln -s /export/server/jdk1.8.0_361 jdk
配置环境变量:
vim /etc/profile
文件中加上:

export JAVA_HOME=/export/server/jdk
export PATH=$PATH:$JAVA_HOME/bin

:wq保存退出
让环境变量生效:
source /etc/profile
配置java执行程序的软链接:
先删除系统自带的java: rm -f /usr/bin/java 【是usr】
软链接到自己安装的java: ln -s /export/server/jdk/bin/java /usr/bin/java
执行验证:java -version javac -version

现在复制jdk到node2,node3,

su - root
cd /export/server
scp -r jdk1.8.0_361 node2:`pwd`/
scp -r jdk1.8.0_361 node3:`pwd`/

可以回到node2查看
cd /export/server
ll
然后从jdk软链接那步开始对node2 ,node3重复操作

若要查看node1之前的环境变量:cat /etc/profile

5.关闭防火墙和SELinux

集群化软件之间需要通过端口互相通讯,避免网络不通,需要集群内部关闭防火墙。
每一台都执行:

systemctl stop firewalld
systemctl disable firewalld

Linux有安全模块SELinux限制用户和程序的相关权限,用来确保系统的安全稳定。需要关闭

vim /etc/sysconfig/selinux

将第7行SELINUX=enforcing改为:SELINUX=disabled
保存退出后重启虚拟机。重启init 6 关机 init 0

6.修改时区并配置自动时间同步

yum install -y ntp
rm -f /etc/localtime;sub ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
ntpdate -u ntp.aliyun.com
systemctl start ntpd
systemctl enable ntpd

执行完后systemctl status ntpd看是否正在运行中,每隔一段时间会自动校准系统当前时间

7.设置快照保存状态

对当前状态进行快照保存,以便后续辉恢复。
关机,右键拍摄快照,做好备注,例如:安装集群前置准备完成

8.下一篇 HDFS集群部署

黑马2023大数据实战教程】VMWare虚拟机部署HDFS集群详细过程文章来源地址https://www.toymoban.com/news/detail-426886.html

到了这里,关于【黑马2023大数据实战教程】使用3台虚拟机搭建大数据集群详细步骤的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (四十)大数据实战——Zabbix监控平台的部署搭建

    Zabbix是一款能够监控各种网络参数以及服务器健康性和完整性的软件。Zabbix使用灵活的通知机制,允许用户为几乎任何事件配置基于邮件的告警,这样可以快速反馈服务器的问题。基于已存储的数据,Zabbix提供了出色的报告和数据可视化功能。Zabbix 支持轮询和被动捕获。基于

    2024年02月20日
    浏览(43)
  • 黑马Redis视频教程实战篇(五)

    目录 一、达人探店 1.1、发布探店笔记 1.2、查看探店笔记 1.3、点赞功能 1.4、点赞排行榜 二、好友关注 2.1、关注和取消关注 2.2、共同关注 2.3、Feed流实现方案 2.4、推送到粉丝收件箱 2.4、实现分页查询收邮箱 发布探店笔记 探店笔记类似点评网站的评价,往往是图文结合。对

    2024年02月07日
    浏览(39)
  • 黑马Redis视频教程实战篇(一)

    目录 一、短信登录 1.1、导入黑马点评项目 (1)导入黑马点评sql脚本 (2)导入后端项目 (3)导入前端项目  1.2、基于Session实现登录流程 1.3 、实现发送短信验证码功能 1.4 、实现登录拦截功能  1.5 、隐藏用户敏感信息 (1)在登录方法处修改  (2)在拦截器处  (3)在

    2024年02月07日
    浏览(75)
  • 黑马Redis视频教程实战篇(二)

    目录 一、什么是缓存? 1.1 为什么要使用缓存? 1.2 如何使用缓存? 二、添加商户缓存 2.1 缓存模型和思路 2.2 代码实现 三、缓存更新策略 2.1 数据库缓存不一致解决方案 2.2 数据库和缓存不一致采用什么方案 四、实现商铺和缓存与数据库双写一致 五、缓存穿透问题的解决思

    2024年02月07日
    浏览(48)
  • 大数据实战 --- 淘宝用户行为数据分析

    目录 开发环境  数据描述 功能需求 数据准备 数据清洗 用户行为分析 找出有价值的用户 Hadoop+Hive+Spark+HBase 启动Hadoop :start-all.sh 启动zookeeper :zkServer.sh start 启动Hive : nohup hiveserver2 1/dev/null 21 beeline -u jdbc:hive2://192.168.152.192:10000 启动Hbase : start-hbase.sh hbase shell 启动Spark :s

    2023年04月22日
    浏览(66)
  • (二十三)大数据实战——Flume数据采集之采集数据聚合案例实战

    本节内容我们主要介绍一下Flume数据采集过程中,如何把多个数据采集点的数据聚合到一个地方供分析使用。我们使用hadoop101服务器采集nc数据,hadoop102采集文件数据,将hadoop101和hadoop102服务器采集的数据聚合到hadoop103服务器输出到控制台。其整体架构如下: ①在hadoop101服务

    2024年02月09日
    浏览(51)
  • (二十)大数据实战——Flume数据采集的基本案例实战

    本节内容我们主要介绍几个Flume数据采集的基本案例,包括监控端口数据、实时监控单个追加文件、实时监控目录下多个新文件、实时监控目录下的多个追加文件等案例。完成flume数据监控的基本使用。 监控端口数据 ①需求说明 - 使用 Flume 监听一个端口,收集该端口数据,并

    2024年02月10日
    浏览(43)
  • 大数据实战 --- 美团外卖平台数据分析

    目录 开发环境  数据描述 功能需求 数据准备 数据分析 RDD操作 Spark SQL操作 创建Hbase数据表 创建外部表 统计查询 Hadoop+Hive+Spark+HBase 启动Hadoop :start-all.sh 启动zookeeper :zkServer.sh start 启动Hive : nohup hiveserver2 1/dev/null 21 beeline -u jdbc:hive2://192.168.152.192:10000 启动Hbase : start-hbase

    2024年02月02日
    浏览(49)
  • (二十二)大数据实战——Flume数据采集之故障转移案例实战

    本节内容我们完成Flume数据采集的故障转移案例,使用三台服务器,一台服务器负责采集nc数据,通过使用failover模式的Sink处理器完成监控数据的故障转移,使用Avro的方式完成flume之间采集数据的传输。整体架构如下: ①在hadoop101服务器的/opt/module/apache-flume-1.9.0/job目录下创建

    2024年02月09日
    浏览(39)
  • 大数据实战 --- 世界新冠疫情数据分析

    目录 开发环境  数据描述 功能需求 数据准备 统计计算 Hbase Hive 分析数据 Hadoop+Hive+Spark+HBase 启动Hadoop :start-all.sh 启动zookeeper :zkServer.sh start 启动Hive : nohup hiveserver2 1/dev/null 21 beeline -u jdbc:hive2://192.168.152.192:10000 启动Hbase : start-hbase.sh hbase shell 启动Spark :spark-shell countryda

    2024年02月02日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包