大数据与云计算——Storm详细配置(保姆级教程!)

这篇具有很好参考价值的文章主要介绍了大数据与云计算——Storm详细配置(保姆级教程!)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大数据与云计算——Storm详细配置(保姆级教程!)

前言

当今世界正处于云计算和大数据的快速发展阶段,而Storm作为一种高效、可靠的实时计算框架,受到了广泛的关注和应用。在这篇文章中,我们将从头开始,将提供一份保姆级教程,帮助进行相关配置和运行WordCountTopology。向您展示如何配置Storm环境。我们将详细介绍所需的软件和工具,并提供逐步指导,帮助您完成安装和配置过程。本人也在不断努力进步,希望自己的博文能够希望对各位有所帮助。

1.准备阶段

1.1 虚拟机
2台虚拟机,ip地址分别为192.168.95.20、192.168.95.21。第1台作为主节点;具体ip地址和普通用户名视自己情况对应处理。(ip地址根据自己实际情况更改!)
本文章所用的全部资料都在网盘,网盘链接
链接:https://pan.baidu.com/s/1MrzDAGUxqduU0HFNuTebdA?pwd=1234
需要的小伙伴可以自行下载。

master 192.168.95.20
node1  192.168.95.22
node2  192.168.95.23

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
1.1创建普通用户
在所有节点上进行。
都创建名为iot(具体视自己情况)的普通用户,并以iot登录。
创建用户iot

useradd iot

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
各节点分别设置iot用户密码

passwd iot

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
在master和node1节点分别设置iot用户权限

chmod -v u+w /etc/sudoers
vi /etc/sudoers

添加iot ALL=(ALL) ALL
然后wq!保存退出。
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
设置完成后,reboot重启,选择iot用户登录。

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node2
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
1.2创建目录
在所有节点上进行。

$mkdir -p /opt/softwares //用于存放软件包

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$mkdir -p /opt/modules //用于存放解压文件夹

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
将安装包上传到softwares目录
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
将master节点下的/opt/softwares文件分发给node1节点

sudo scp -r /opt/softwares iot@192.168.95.21:/opt

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node1节点查看传输文件

cd /opt
ls
cd softwares
ls -hl

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
node2
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
1.4将已下载软件放置在/opt/softwares目录
放在主节点。后面如要放在从节点,请遵照。
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

2.安装依赖包及软件

2.1安装依赖包
在所有节点上进行。

$ sudo yum -y install gcc-c++ uuid* libtool libuuid libuuid-devel

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
2.2安装并配置JDK
2.2.1安装JDK
2.2.1.1.1在主节点上解压
此步骤如果该前面章节安装过,已忽略。
2.2.1.2检查Java是否安装成功
Master里面查看java:

java -version

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node1里面查看java:

java -version

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node2里面查看java:

Java -version

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

3.安装Zookeeper

以下步骤如无特殊说明,请在主节点上运行。
3.1解压安装包

$tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz -C /opt/modules

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
3.2配置Zookeeper
3.2.1编辑主节点配置文件

$vi /opt/modules/apache-zookeeper-3.6.3-bin/conf/zoo.cfg

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
在配置文件的最后添加以下内容:

server.1=192.168.95.20:2888:3888
server.2=192.168.95.22:2888:3888
server.3=192.168.95.23:2888:3888

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
3.2.1myid文件
3.2.1.1创建zkData目录及myid文件
在所有节点上进行。

$mkdir -p /opt/modules/apache-zookeeper-3.6.3-bin/zkData/
$cd /opt/modules/apache-zookeeper-3.6.3-bin/zkData/
$touch myid

Master:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node1:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node2:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
3.2.1.2第一个节点
在第一个节点进行。

$vi /opt/modules/apache-zookeeper-3.6.3-bin/zkData/myid

键入:
1
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
3.2.1.3第二个节点
在第二个节点进行。

$vi /opt/modules/apache-zookeeper-3.6.3-bin/zkData/myid

键入:
2
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
3.2.1.4第三个节点
在第三节点进行。

$vi /opt/modules/apache-zookeeper-3.6.3-bin/zkData/myid

键入:
3
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
3.3配置Zookeeper环境变量
在所有节点上进行。

$sudo vi /etc/profile

做如下修改:

export ZOOKEEPER_HOME=/opt/modules/apache-zookeeper-3.6.3-bin
export PATH=$PATH:$ZOOKEEPER_HOME/bin

master:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node1:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node2
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

4.安装ZeroMQ

在所有节点进行。
4.1解压缩包

cd /opt/softwares
rpm -ivh zeromq-4.3.4-37.5.src.rpm
cd ~/rpmbuild/SOURCES
tar -zxvf zeromq-4.3.4.tar.gz

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
4.2编译并安装

$ cd zeromq-4.3.4/
$ ./autogen.sh

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$./configure

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$make

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$sudo make install

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
4.3更新动态链接库

$sudo vi /etc/ld.so.conf

在最后面追加/usr/local/lib/ //该目录存放了JZMQ和ZeroMQ的库文件
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

sudo ldconfig  //将库路径加载到内存

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
参考:https://blog.51cto.com/u_2650279/6143472 ;https://www.656463.com/article/UbuntuxStormazdjfbs_3

5.安装JZMQ

在所有节点进行。
5.1安装git

$ sudo yum install -y git

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
5.2下载JZMQ代码

$cd /opt/softwares
$git clone https://github.com/zeromq/jzmq.git

注:如果出现fatal: unable to access 'https://github.com/zeromq/jzmq.git/': Failed connect to github.com:443; Connection refused问题,可使用以下命令解决:(参考:https://blog.csdn.net/weixin_44442186/article/details/124979085)
取消全局代理:

git config --global --unset http.proxy
git config --global --unset https.proxy

添加全局代理:

git config --global http.proxy
git config --global https.proxy

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
将下载好的JZMQ代码通过scp传到node1和node2节点。
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
5.3编译并安装
直接复制粘贴到终端:

$cd jzmq
$cd jzmq-jni
$./autogen.sh
$./configure
$make
$sudo make install

Master节点:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node1节点:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
Node2节点:

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

6.安装Storm

以下步骤如无特殊说明,请在主节点上运行。
6.1解压缩Storm安装包
解压apache-storm-2.4.0.tar.gz到/opt/modules目录(若没有此目录则创建)

$ tar -zxvf apache-storm-2.4.0.tar.gz -C /opt/modules

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
6.2设置Storm配置文件
$vi /opt/modules/apache-storm-2.4.0/conf/storm.yaml
做如下替换:
6.2.1替换1

#storm.zookeeper.servers:
  - "server1"
   - "server2"

替换为:

storm.zookeeper.servers:
- "192.168.95.20"
- "192.168.95.22"
- "192.168.95.23"

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
6.2.2替换2

nimbus.seeds: ["host1", "host2", "host3"]

替换为:

nimbus.seeds: ["192.168.109.131", "192.168.109.132", "192.168.109.133"]

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
6.2.3设置临时路径
在所有节点进行。
storm.local.dir: "/tmp/storm" //前提是已经创建了此临时路径
参考:https://blog.csdn.net/zjjcchina/article/details/120650514
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
6.3复制到从节点

Sudo chmod 777 /opt/modules

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$scp -r /opt/modules/apache-storm-2.4.0/ iot@192.168.95.22: /opt/modules/

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$scp -r /opt/modules/apache-storm-2.4.0/ iot@192.168.95.23: /opt/modules/

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
6.4配置Storm环境变量
在所有节点上运行。

$sudo vi /etc/profile

做如下修改:

#set storm environment
export STORM_HOME=/opt/modules/apache-storm-2.4.0
export PATH=$PATH:$STORM_HOME/bin

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
6.5使环境变量生效
在所有节点上运行。

$source /etc/profile

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
7启动Zookeeper
此步需要在启动Storm之前执行。
在所有节点上执行。
确保已经添加java环境。

sudo vim /etc/profile

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

cd /opt/modules/apache-zookeeper-3.6.3-bin/bin
udo vi ./zkServer.sh

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
加入

export JAVA_HOME=/usr/lib/jvm/java-openjdk
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$cd /opt/modules/apache-zookeeper-3.6.3-bin/bin
$./zkServer.sh start

执行结果及进程如下:
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

7.启动Storm

建议使用MobaXterm远程登录客户端,因为同一个节点,比如192.168.109.131需要启动多个服务,且各个服务启动后就不会返回shell界面。这时就可以使用MobaXterm较方便的打开多个终端启动其他服务。
8.1主节点
8.1.1启动nimbus进程

$storm nimbus

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
8.1.2启动UI

$vi /opt/modules/apache-storm-2.4.0/conf/storm.yaml

storm ui的默认端口为8080, 而该端口被其他进程占用(如hadoop等),我们将其修改为其它端口。
加入:
ui.port: 19999(注意冒号后面一定要有空格)

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

$storm ui

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
8.1.3启动logviewer

$storm logviewer

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
8.1.4主节点执行结果及进程
直接jps查看进程:

jps

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
8.2从节点
8.2.1启动supervisor

$storm supervisor

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
8.2.2启动logviewer

.$storm logviewer

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9Storm应用实践
9.1使用Maven管理storm-starter
在主节点进行。
9.1.1安装Maven
9.1.1.1解压

$tar -zxvf apache-maven-3.9.2-bin.tar.gz -C /opt/modules/

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.2配置Maven环境变量
9.1.2.1设置Maven环境变量

$sudo vi /etc/profile
export MAVEN_HOME=/opt/modules/apache-maven-3.9.2
export PATH=$PATH:$MAVEN_HOME/bin

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.2.2使环境变量生效

$source /etc/profile

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.2.3测试Maven是否安装成功

mvn -version

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.3使用Maven管理示例工程storm-starter
9.1.3.1修改Maven的配置文件

$cd /opt/modules/apache-maven-3.9.2/conf
$vi settings.xml

对以下语句进行注释:

<mirror>
      <id>maven-default-http-blocker</id>
      <mirrorOf>external:http:*</mirrorOf>
      <name>Pseudo repository to mirror external repositories initially using HTTP.</name>
      <url>http://0.0.0.0/</url>
      <blocked>true</blocked>
</mirror>

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.3.2进入storm-starter目录

$cd /opt/modules/apache-storm-2.4.0/examples/storm-starter

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.3.3编辑pom.xml文件

$vi pom.xml

在和标签中添加:

<plugin>
    <groupId>org.codehaus.mojo</groupId>
    <artifactId>exec-maven-plugin</artifactId>
    <version>1.6.0</version>
    <executions>
        <execution>
            <goals>
                <goal>java</goal>
            </goals>
        </execution>
    </executions>
    <configuration>
        <mainClass>storm.starter.WordCountTopology</mainClass>
    </configuration>
</plugin>

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.3.4编译storm-starter工程

$ mvn clean install -DskipTests=true

此过程会下载大量文件,请耐心等待……
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.1.3.5打包成jar

$ mvn package

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.2提交运行

$cd /opt/modules/apache-storm-2.4.0/examples/storm-starter/target
$storm jar ./storm-starter-2.4.0.jar org.apache.storm.starter.WordCountTopology wordcountTpy 

//参考:https://blog.csdn.net/lt1693016523/article/details/82662071
成功提交运行jar包
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
9.2.1UI监控
任务提交之后就可以监控。在浏览器中输入:

192.168.95.20:19999 //ip地址视自己情况改变

storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
storm教程,大数据,大数据系统运维,Linux,大数据,云计算,storm,运维开发,linux,数据库架构,java
至此,关于Storm配置及运行WordCountTopology就结束了,过程有点繁琐,但是一步步来遇到问题解决问题,在实践中提高自己运维能力。无论做什么事,我们的主线任务都不能断,无论各位是考研考公或是考教资,希望各位都不要忘了主线,把精力和时间浪费在不值得的事,一路走来难免有后悔,不过还有机会,希望早晚有一天能听到属于我们自己的“Congratulations”,祝你我.

今日写博客Bgm——《祝贺你》歌手:朱迪·霍普斯专辑:希望(Remix)文章来源地址https://www.toymoban.com/news/detail-769515.html

到了这里,关于大数据与云计算——Storm详细配置(保姆级教程!)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据-Storm流式框架(二)--wordcount案例

    storm软件包中lib目录下的所有jar包 WordCountTopology.java LineSpout.java SplitBolt.java CountBolt.java 右键运行WordCountTopology S torm配置项 说明 java.library.path Storm本身依赖包的路径,存在多个时用冒号分隔 storm.local.dir Storm使用的本地文件系统目录(必须存在并且storm进程可读写)。默认是sto

    2024年02月08日
    浏览(40)
  • 大数据-Storm流式框架(六)---Kafka介绍

    Kafka是一个分布式的消息队列系统(Message Queue)。 官网:Apache Kafka 消息和批次 kafka的数据单元称为 消息 。消息可以看成是数据库表的一行或一条记录。 消息由 字节数组 组成,kafka中消息没有特别的格式或含义。 消息有可选的 键 ,也是一个字节数组,没有特殊的含义。当消

    2024年02月08日
    浏览(51)
  • 大数据与云计算——MPI集群配置(全网最详细讲解)

    MPI(消息传递接口)是一种用于编写并行程序的标准,它允许在多个计算节点上进行通信和协作。MPI集群配置是指在一个或多个计算节点上设置MPI环境以实现并行计算。 MPI集群配置的步骤: 硬件选型:选择适合你需求的硬件设备,包括主节点和计算节点。主节点负责协调计

    2024年02月04日
    浏览(48)
  • 大数据分布式实时大数据处理框架Storm,入门到精通!

    介绍:Storm是一个分布式实时大数据处理框架,被业界称为实时版的Hadoop。 首先,Storm由Twitter开源,它解决了Hadoop MapReduce在处理实时数据方面的高延迟问题。Storm的设计目标是保证数据的实时处理,它可以在数据流入系统的同时进行处理,这与传统的先存储后处理的关系型数

    2024年01月23日
    浏览(53)
  • 数据架构的实时分析:Apache Flink 和 Apache Storm 的比较

    实时数据处理在大数据领域具有重要意义,它可以帮助企业更快地获取和分析数据,从而更快地做出决策。随着数据量的增加,传统的批处理方法已经不能满足企业的需求,因此需要使用实时数据处理技术。 Apache Flink 和 Apache Storm 是两个流行的实时数据处理框架,它们都可以

    2024年01月23日
    浏览(57)
  • 大数据技术学习之Storm、Spark学习手册,这还不码住学起来

    Storm与Spark、Hadoop这三种框架,各有各的优点,每个框架都有自己的最佳应用场景。所以,在不同的应用场景下,应该选择不同的框架。 1.Storm是最佳的流式计算框架,Storm由Java和Clojure写成,Storm的优点是全内存计算,所以它的定位是分布式实时计算系统,按照Storm作者的说法

    2024年02月04日
    浏览(43)
  • storm统计服务开启zookeeper、kafka 、Storm(sasl认证)

    部署storm统计服务开启zookeeper、kafka 、Storm(sasl认证) 当前测试验证结果: 单独配置zookeeper 支持acl 设置用户和密码,在storm不修改代码情况下和kafka支持 当kafka 开启ACL时,storm 和ccod模块不清楚配置用户和密码。 使用python脚本连接kafka用户和密码是能成功发送消息。 当前部署

    2024年01月22日
    浏览(51)
  • Storm学习之使用官方Docker镜像快速搭建Storm运行环境

    Apache Storm 官方也出了Docker 镜像 https://hub.docker.com/_/storm/ 本文我们就基于官方镜像搭建一个 Apache Storm 2.4 版本的运行环境,供大家后续学习。 有问题可以参考issue 解决, 我的安装过程一路都很顺畅。所以基本上没有看下面是我的详细操作和截图 。 可以说网上的乱七八糟的教

    2024年02月14日
    浏览(59)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(90)
  • “1+X“大数据平台运维职业技能等级证书(中级)模拟题-Storm组件部署

    目录 一、前置说明 二、Storm相关知识(必看,仅应对考试) 三、Storm部署 3.1、Zookeeper集群安装并启动 3.2、解压Storm,并配置conf/storm.yaml 3.3、启动storm集群 3.3.1、前台运行 3.3.2、挂载后台运行 3.4、web查看 这个是我自己电脑的环境,考试会变动 环境表 主机名 IP地址 masterNode1

    2024年02月07日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包