大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全

这篇具有很好参考价值的文章主要介绍了大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        本书涵盖了Docker和Kubernetes的基本概念及常用命令,以及Zookeeper、HDFS、YARN、YARN资源池、HBase、HBase集成Phoenix、Hive、Kafka、Spark、Flink等大数据技术的常用命令。

Zookeeper

安装kerberos客户端
yum install krb5-workstation -y

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

安装Zookeeper客户端
wget https://dlcdn.apache.org/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz

解压
tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz

启动zk服务端
./zkCli.sh -server zknode-4454-15044:2181

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

查看ls / 数据打印说明启动成功

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

HDFS

安装插件yum install -y wget

添加Hadoop客户端

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

解压tar -zxvf hadoop-3.2.4.tar.gz

将HDFS组件所在位置的hadoop文件拷贝到远程客户端
路径hadoop:/opt/hadoop/etc/hadoop
scp -r hadoop root@172.1.1.1:/root/Test02/Hadoop/hadoop/etc/
在拷贝到/etc/
登录账号kinit zuser01/test
输入密码:123456

主机上需具备jdk (zk\hadoop\hive\hbase都需要JDK环境)

修改环境配置
cat /etc/profile.d/my_env.sh
vim /etc/profile.d/my_env.sh
source /etc/profile

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

远程链接NameNode
./hdfs dfs -ls hdfs://172.18.1.91/
未配置策略时,会有相应提示无权限

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

远程创建文件
./hdfs dfs -mkdir hdfs://172.18.1.91/testHadoop

查看./hdfs dfs -ls hdfs://172.18.1.91/
创建文件 ./hdfs dfs -mkdir hdfs://172.18.1.91/testHadoop

上传文件
./hdfs dfs -put hadoop.txt hdfs://172.18.1.91/testHadoop

查看
./hdfs dfs -cat hadoop.txt hdfs://172.18.1.91/testHadoop/hadoop.txt

下载
./hdfs dfs -get hdfs://172.18.1.91/testHadoop/hadoop.txt

本地pod删除文件
hdfs dfs -rm -r /output2

YARN

查看
yarn application -list

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

写入
yarn jar /root/Test02/Hadoop/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.2.4-tests.jar TestDFSIO -write -nrFiles 10 -fileSize 1000

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

读取read
yarn jar /root/Test02/Hadoop/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.2.4-tests.jar TestDFSIO -read -nrFiles 10 -fileSize 1000

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

YARN资源池

进入yarn pod里面找到调度器配置
cd /opt/hadoop/etc/hadoop

查看默认队列信息
yarn queue -status default

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

创建文件并放入hdfs目录下
echo “hello yarn”>>yarnSche.txt
hdfs dfs -mkdir /yarnScheduler
hdfs dfs -put yarnSche.txt /yarnScheduler

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

FIFO策略不指定队列提交任务
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount /yarnScheduler/yarnSche.txt /output
任务执行成功,会在root.default中展示

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

FIFO策略指定队列提交任务

yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount -D mapreduce.job.queuename=root.ztest /yarnScheduler/yarnSche.txt /output

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

更新下载 apt-get update
安装vim :yum -y install vim

修改配置文件的命令,不通过组件配置页面修改,通过xshell外部命令进行修改
docker inspect fe1
cat /etc/cyber-ops/YARN/3.2.4/ResourceManager/25020/capacity-scheduler.xml

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

Fair策略

不指定队列
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount /yarnScheduler/yarnSche.txt /outpu12
指定队列
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount -D mapreduce.job.queuename=root.ztest.eng /yarnScheduler/yarnSche.txt /outpu12

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

Drf策略

不指定队列
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount /yarnScheduler/yarnSche.txt /outpu10
指定队列
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount -D mapreduce.job.queuename=root.ztest /yarnScheduler/yarnSche.txt /outpu12

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

查看正在执行的队列
yarn application –list
删除队列
yarn application -kill application_1676515216453_0002

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

Capctity

不指定队列提交
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount /yarnScheduler/yarnSche.txt /outpu10

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

指定队列提交
yarn jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar wordcount -D mapreduce.job.queuename=root.test /yarnScheduler/yarnSche.txt /outpu12

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

HBase

apt-get update -y && apt-get install -y openssh-client 安装scp

连接bin/hbase shell

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

查看
list

创建表
create ‘zrtest’, ‘test’

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

插入
put ‘zrtest’,’1’,’test’,’zs’

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

查询
get ‘zrtest’,’1’

删除
delete ‘zrtest’,’1’,’test’

Hbase集成Phonenix

进入Hbase的终端bin下,操作phonenix

sqlline.py

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

查询表
!tables

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

!describe tablename可以查看表字段信息

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

创建表
create table “test”(
empid varchar primary key,
“name”.”firstname” varchar,
“name”.”lastname” varchar,
“company”.”name” varchar,
“company”.”address” varchar
);


查询表
select * from “test”;


查看表信息
!table “test”


插入数据
UPSERT INTO “test”(“EMPID”,”firstname”,”lastname”,”name”,”addres”) VALUES(‘1’,’foo’,’zr’,’zrgg’,’123hao’);


更新数据
UPSERT INTO “test”(“EMPID”,”firstname”,”lastname”,”name”,”addres”) VALUES(‘1’,’fee’,’zr’,’zrgg’,’123hao’);


翻页查询
select * from “test” order by EMPID desc limit 1 offset 0;


删除表信息
delete from “test” where “EMPID”=’1’;
在Hbase中查看Phoenix的表信息
List
scan ‘test’


删除表
drop table “test”;
在Hbase中创建表
create ‘phoenix’,’info’
插入数据
put ‘phoenix’, ‘row001’,’info:name’,’phoenix’
put ‘phoenix’, ‘row002’,’info:name’,’hbase’


phoenix下创建视图映射HBase表
create view “phoenix” (
pk VARCHAR primary key,
“info”.”name” VARCHAR
);
查询,数据已可查到
select * from “phoenix”;

Hive

安装远程客户端
wget https://dlcdn.apache.org/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz

解压
tar -zxvf apache-hive-3.1.2-bin_(1).tar.gz

beenline连接时,根据hive-site中的principal进行连接
beeline -u “jdbc:hive2://172.18.1.1:30862/;24695@CYBEROPS.DATAC.COM" rel="nofollow"">principal=hive/haproxy-5487-24695@CYBEROPS.DATAC.COM“

查看
show databases;

创表
create table zhvie(id int ,name string);

查表
select * from zhvie;

插入表
insert into zhvie values(1,’zhangsan’);

Kafka

下载kafka客户端
wget https://archive.apache.org/dist/kafka/2.8.2/kafka_2.12-2.8.2.tgz
安装客户端
tar -zxvf kafka_2.12-2.8.2.tgz

查看list
bin/kafka-topics.sh –list –bootstrap-server kafkanode-4627-15759:31966 –command-config config/consumer.properties

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

创建
bin/kafka-topics.sh –bootstrap-server kafkanode-4627-15759:31966 –create –topic first –partitions 2 replication-factor 3 –command-config config/producer.properties

删除topic 单个
bin/kafka-topics.sh –bootstrap-server kafkanode-4627-15759:31966 –delete –topic zutesttp –command-config config/consumer.properties
删除多个
bin/kafka-topics.sh –bootstrap-server kafkanode-4627-15759:31966 –delete –topic zutes,hkaft –command-config config/consumer.properties

修改
bin/kafka-topics.sh –bootstrap-server kafkanode-4627-15759:31966 –alter –topic first –partitions 1 replication-factor 2 –command-config config/producer.properties

查看每一个topic详情
bin/kafka-topics.sh –bootstrap-server kafkanode-4627-15759:31966 –describe –topic first –command-config config/producer.properties

生产消息
bin/kafka-console-producer.sh –bootstrap-server kafkanode-4627-15759:31966 –topic zuser01 –producer.config config/producer.properties

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

当生产者填写数据后,消费者可看到发送的消息
消费消息
bin/kafka-console-consumer.sh –bootstrap-server kafkanode-4627-15759:31966 –topic zuser01 –consumer.config config/producer.properties

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

查看之前发送的所有消息
bin/kafka-console-consumer.sh –bootstrap-server kafkanode-4627-15759:31966 –topic zuser01 –from-beginning –consumer.config config/producer.properties

Spark

下载客户端
wget https://archive.apache.org/dist/spark/spark-3.2.2/spark-3.2.2-bin-hadoop3.2.tgz

解压
tar -zxvf spark-3.2.2-bin-hadoop3.2.tgz

spark提交任务,任务从hdfs中获取jar包文件,然后执行jar文件

spark-submit -v –deploy-mode cluster –class org.apache.spark.examples.SparkPi –master yarn hdfs:///spark-examples_2.12-3.2.2.jar 1

Flink

下载客户端
wget https://archive.apache.org/dist/flink/flink-1.13.6/flink-1.13.6-bin-scala_2.12.tgz
解压
tar -zxvf flink-1.13.6-bin-scala_2.12.tgz

安装scp插件
升级版本apt update && apt install -y libtinfo5 –allow-remove-essential
apt-get update -y && apt-get install -y openssh-client 安装scp

在本地pod中执行任务
flink run examples/batch/WordCount.jar

大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全,大数据,docker,kubernetes

停止yarn session

echo “stop” | yarn-session.sh -id application_1678335961951_0003

强制杀死yarn session

yarn application -kill application_1678335961951_0003
向指定yarn session提交任务:
flink run -t yarn-session -Dyarn.application.id=application_1678335961951_0003 examples/batch/WordCount.jar

flink run examples/batch/DistCp.jar –input hdfs:///LICENSE –output hdfs:///ddd

Docker和K8s操作命令

docker命令相关————————-
docker ps【列出docker下的容器列表】
yum -y remove docker-ce 【卸载docker】
docker ps
ps -ef | grep agent
docker ps【列出docker下的容器列表】
cd .ssh/【进入到.ssh文件下 目录 /root/.ssh】
ll【查看数据信息】
cat authorized_keys【查看公钥】
ssh root@172.1.1.1
ctrl+d 登出

pwd【查看目录信息】

hostname【查看主机名称】

docker logs –tail=500 -f 21d6bb5052e2【查看日志信息 21d6bb5052e2是CONTAINER ID的标识】

ctrl +c 【退出查看日志】

docker exec -it 21d6bb5052e2 bash 【进入到组件的终端 21d6bb5052e2是CONTAINER ID的标识】
docker stats 【查看资源使用情况】
docker search centos 【查看下载stars最多的镜像】
yum install -y lrzsz 【安装插件】
docker命令相关————————-结束———————

k8s命令相关——————-开始—————————
-n 后跟k8s命名空间信息
kubectl -h 【查看具体操作参数】
kubectl get nodes 【获取节点信息】
kubectl get pods【获取节点信息】
kubectl cluster-info【查看集群信息】
kubectl get pods -n cyberops-l8nc 【查看各组件信息 cyberops-l8nc 是K8s命名空间】
kubectl get pods -o wide 【查看pods所在的运行节点】
kubectl get pods -o yaml【查看pods定义的详细信息】
kubectl exec pod-hs-2853-13904 env -n cyberops-l8nc 【查看pods环境变量】
kubectl exec pod-hs-2853-13904 env -n cyberops-l8nc | grep HADOOP 【查看hadoop信息】
kubectl describe pod pod-hs-2853-13904 -n cyberops-l8nc 【查看pod应用信息】
kubectl describe node master-01 【查看node节点日志信息】
kubectl logs –tail 200 -f pod-hs-2853-13904 -n cyberops-l8nc 【查看日志信息】
kubectl logs –since=1h pod-hs-2853-13904 -n cyberops-l8nc【查看pod近一个小时的日志信息】
kubectl exec -it pod-hs-2853-13904 bash -n cyberops-l8nc 【进入到组件的终端】
kubectl get service【查看命名空间】
kubectl get pods -n cyber-ops【查看ops下服务】
kubectl exec -it cyberops-web-5f546758b5-lmsdm bash -n cyber-ops 【免密进入ops-web服务】
kubectl get pods -A 【查看所有在k8s运行的集群】或者 kubectl get all
kubectl get pods -A -owide 【查看详细信息】
kubectl get ns 【查看所有的命名空间】或者 kubectl get namespaces
kubectl get pod –show-labels 【查看标签信息】
kubectl get node、kubectl get nodes【查看节点信息】
kubectl get pods -o wide 【查看pod运行的ip地址】
kubectl get pod –all-namespaces【查看所有pod的所属命名空间】
kubectl get pod –all-namespaces -o wide 【查看命名空间和运行节点】
kubectl get rs 【查看副本pod节点】
kubectl get ev | tail -n 10 【查看事件】
kubectl explain rs【查看资源文档信息】
kubectl top nodes【查看node资源使用情况】
kubectl –help【查看帮助文档】
kubectl version【查看版本号,详细】或者 kubectl version –short 【简约】
ls -a 【查看隐藏文件】
kubectl logs –tail 500 -f cyberops-web-7fc98fddcb-hk7h7 -n cyber-ops 【查看ops项目下的日志信息】
kubectl get pods -n 【k8s空间名】 -w【监控组件安装】
kubectl get events -n cyberops-s97d 【查看k8s下的组件安装信息】
kubectl get pods,svc -n cyberops-s97d 【查看端口信息】


 文章来源地址https://www.toymoban.com/news/detail-811252.html

到了这里,关于大数据与容器化技术指南:Docker、Kubernetes与大数据生态常用命令大全的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据技术原理与应用实验指南——HDFS JAVA API编程实践

    1. 实验目的 (1) 熟练使用HDFS操作常用的Shell命令。 (2) 熟悉HDFS操作常用的Java API。 2. 实验内容 (1) 编程实现指定功能,并利用Hadoop提供的Shell命令完成相同任务(文件的上传、下载、输出、删除、移动等操作)。 (2) 有余力编写一个Java程序,读取HDFS中的指定文件。

    2024年02月19日
    浏览(27)
  • 《基于区块链的数据资产评估实施指南》技术研讨会成功召开

    2023年9月1日,《基于区块链的数据资产评估实施指南》(以下简称《指南》)技术研讨会在深圳召开,竹云科技作为主要参编单位出席此次研讨会。 中国科协决策咨询首席专家王春晖,中国社会科学院博士于小丽,中国科学院深圳先进技术研究院研究员曲强以及来自中国电子

    2024年02月07日
    浏览(33)
  • 【SQL Server】数据库开发指南(八)高级数据处理技术 MS-SQL 事务、异常和游标的深入研究

    本系列博文还在更新中,收录在专栏:#MS-SQL Server 专栏中。 本系列文章列表如下: 【SQL Server】 Linux 运维下对 SQL Server 进行安装、升级、回滚、卸载操作 【SQL Server】数据库开发指南(一)数据库设计的核心概念和基本步骤 【SQL Server】数据库开发指南(二)MSSQL数据库开发对

    2024年02月07日
    浏览(62)
  • 热门的容器技术:Docker 和 Kubernetes 介绍

    目录 一、什么是容器技术 二、Docker 介绍 三、Kubernetes介绍 四、Docker 和 Kubernetes的区别 容器技术指的是一种操作系统级的虚拟化技术,用于将应用程序及其依赖项打包成一个独立的、可移植的运行环境,称为容器。容器技术通过隔离应用程序之间的运行环境,使得每个容器在

    2024年02月03日
    浏览(32)
  • 云计算与大数据课程笔记(十)之容器技术与云原生辅助笔记

    微服务架构是一种将单一应用程序作为一套小服务的开发风格,每个服务运行在其独立的进程中,并通常围绕业务能力进行组织,服务之间通过轻量级的通信机制(通常是HTTP)进行交互。这种架构风格致力于提高大型复杂系统的可维护性、可扩展性和灵活性。 侵入式微服务

    2024年04月16日
    浏览(24)
  • 【区块链】区块链技术指南

    区块链分为公有链、私有链、联盟链。 从链与链的关系来分:主链、侧链。 多链在节点的“握手”连接过程如下: 1)每个节点提供它的公共地址,使其他节点能将它的地址包括在允许连接的清单中; 2)每个节点验证邻节点的地址是在它的授权连接的节点清单里 3)每个节

    2024年02月08日
    浏览(26)
  • 机器学习-搜索技术:从技术发展到应用实战的全面指南

    在本文中,我们全面探讨了人工智能中搜索技术的发展,从基础算法如DFS和BFS,到高级搜索技术如CSP和优化问题的解决方案,进而探索了机器学习与搜索的融合,最后展望了未来的趋势和挑战,提供了对AI搜索技术深刻的理解和展望。 关注TechLead,分享AI全维度知识。作者拥有

    2024年02月05日
    浏览(37)
  • 容器技术,1. Docker,2. Kubernetes(K8s):

    目录 容器技术 1. Docker: 2. Kubernetes(K8s): Docker和Kubernetes 容器的主要应用场景有哪些? 有效的将单个操作系统的资源划分到孤立的组中,以便更好的在孤立的组之间平衡有冲突的资源使用需求,这种技术就是容器技术。 容器技术指通过在物理主机操作系统上创建一个一个

    2024年02月11日
    浏览(38)
  • 技术写作最佳实践与策略指南

    作为一名技术写作者,遵守既定的最佳实践有助于确保您的工作的一致性、清晰性和整体质量。一些常见的最佳实践包括: 始终考虑受众: 牢记用户视角编写内容。确保技术术语、语言和复杂程度与您的目标读者相匹配。 逻辑地组织内容: 将材料分为章节、子章节、项目符号

    2024年02月04日
    浏览(42)
  • Python高级技术复习指南

            正则表达式这一块主要还是利用 re模块 和正则表达式结合去进行一个指定字符串的提取,我们首先需要了解到的就是 元字符 : 我们并不只有 re.findall 这一个方法,还有一个 match对象 方法以及 flag参数 也要一并复习 因为是简单复习,所以我们来举几个例子: eg1: 有

    2024年01月20日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包