Sqoop和Flume简单安装配置使用详细解答

这篇具有很好参考价值的文章主要介绍了Sqoop和Flume简单安装配置使用详细解答。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. Sqoop

1.1 Sqoop介绍

  • Sqoop 是一个在结构化数据和 Hadoop 之间进行批量数据迁移的工具

    • 命令执行过程中,map 0% ,Reduce0%----》map 100% ,Reduce 100%

    • Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

    • 把关系型数据库的数据导入到 Hadoop 与其相关的系统

    • 把数据从 Hadoop 系统里抽取并导出到关系型数据库里

    • 结构化数据可以是MySQL、Oracle等关系型数据库

    • 底层用 MapReduce 实现数据

idnameage
1zhangsan18

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

1.2 Sqoop安装

  • 下载、上传、解压、重命名和授权

    • https://mirrors.tuna.tsinghua.edu.cn/apache/sqoop/1.3.7/sqoop-1.3.7.bin__hadoop-2.6.0.tar.gz

  • 上传到 /home/hadoop 目录,直接在xshell拖拽进入家目录即可

  • #Sqoop的安装sudo tar -xvf sqoop-1.3.7.bin__hadoop-2.6.0.tar.gz -C /usr/local#改名sudo mv /usr/local/sqoop-1.3.7.bin__hadoop-2.6.0/ /usr/local/sqoop#授权sudo chown -R hadoop /usr/local/sqoop

1.3 Sqoop配置和验证

1.3.1 sqoop配置

#1、修改配置文件mv /usr/local/sqoop/conf/sqoop-env-template.sh /usr/local/sqoop/conf/sqoop-env.sh# 进入配置目录,把各个组件的路径写入cd /usr/local/sqoop/conf/sudo vim sqoop-env.sh


Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

#2、上传 jar 文件cd /usr/local/sqoop/lib/#2.1 上传 MySQL 的驱动文件,拖拽上传进xshell#2.2拷贝 hive 的驱动文件cp /usr/local/hive/lib/hive-common-2.3.7.jar /usr/local/sqoop/lib/#3、配置环境变量#编辑环境变量vim /home/hadoop/.bashrc#在环境变量最后添加以下内容export SQOOP_HOME=/usr/local/sqoopexport PATH=$PATH:$SQOOP_HOME/bin#刷新环境变量source /home/hadoop/.bashrc#验证是否安装成功sqoop version

1.3.2 在MySQL中创建sqoop用户

#查看管理员账户和密码sudo cat /etc/mysql/debian.cnf 

#用查看的账户和密码登录mysql -u debian-sys-maint -p#登录成功再执行下面命令,可参考下图#创建sqoop用户,create user 'sqoop'@'%' identified by '123456';#并对用户授权grant all privileges on sqoop.* to 'sqoop'@'%';#刷新使授权生效flush privileges;#退出exit;

执行MySQL示例:

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

1.3.3 验证sqoop是否成功运行及常见错误:

  • #测试能否成功连接数据库

#测试能否成功连接数据库sqoop list-databases --connect jdbc:mysql://master:3306/?useSSL=false --username sqoop --password 123456
  1. 使用命令报错时:

    #测试能否成功连接数据库sqoop list-databases --connect jdbc:mysql://master:3306/?useSSL=false --username sqoop --password 123456
  2. **报错信息如下:**ERROR manager.CatalogQueryManager: Failed to list databases

com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link failure

完整信息在下面:

  • Warning: /usr/local/sqoop/../hcatalog does not exist! HCatalog jobs will fail.
    Please set $HCAT_HOME to the root of your HCatalog installation.
    Warning: /usr/local/sqoop/../accumulo does not exist! Accumulo imports will fail.
    Please set $ACCUMULO_HOME to the root of your Accumulo installation.
    。。。
    	at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243)
    	at org.apache.sqoop.Sqoop.main(Sqoop.java:252)Caused by: java.net.ConnectException: Connection refused (Connection refused)
    	at java.net.PlainSocketImpl.socketConnect(Native Method)
                                  	at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350)
    	at java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:206)
    	at java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:188)
    	at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)
    	at java.net.Socket.connect(Socket.java:589)
    	at com.mysql.jdbc.StandardSocketFactory.connect(StandardSocketFactory.java:211)
    	at com.mysql.jdbc.MysqlIO.<init>(MysqlIO.java:301)
    	... 24 more


原因:没有开启远程登录,需要修改配置

        **解决方案:**
#查看状态(防火墙是inactive状态)sudo ufw status#查看端口netstat -an | grep 3306

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

        ~~~shell

#编辑端口
#注释掉43行的bind-address
sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf

##修改端口,需要重启虚拟机
sudo reboot

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

成功状态:

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

**如果Sqoop转移数据到Hive不成功需注意:**之前Hive初始化是在单机伪分布式状态下进行的,和现在集群状态不符,需要重新格式化HIve,删除MySQL的hive元数据库

#hive如果想重新配置的同学#在配置完master的hive之后,不要初始化,根据情形进行下面操作#情形一:如果单机节点没有配好,
    #按照Hive单机的安装步骤,在master配置完hive后,需要同步给slave1和slave2
    scp /usr/local/hive hadoop@slave1:/usr/local/    scp /usr/local/hive hadoop@slave2:/usr/local/    #同步系统环境变量
    scp /home/hadoop/.bashrc  hadoop@slave1:/home/hadoop    scp /home/hadoop/.bashrc  hadoop@slave2:/home/hadoop    #三个节点上刷新
    source /home/hadoop/.bashrc#情形二:单机已经成功,其他节点是克隆出来的
    #查看mysql数据里的hive元数据信息
    #查看默认的账号和密码,使用以下命令:
    sudo cat /etc/mysql/debian.cnf
    mysql -u debian-sys-maint -p 
    #输入cat命令显示的密码

    #当前节点数据库有哪些
    show databases;

    #查看的密码
    #三个节点都要执行超级用户登录后,查看有没有hive的数据库,有的话删除
    drop database hive;

    #三个节点初始化操作
    schematool -dbType mysql -initSchema

验证状态-Hive初始化成功:

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

再次执行查询数据库命令:

#测试能否成功连接数据库sqoop list-databases --connect jdbc:mysql://master:3306/?useSSL=false --username sqoop --password 123456

1.3.4 使用前的数据准备

1.3.4.1 mysql数据准备(下面操作可在dbeaver中进行)

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

#(1)使用sqoop用户登录MySQL,使用以下命令:
#如果使用dbeaver连接MySQL,不用在输入这步命令了
mysql -u sqoop -p

#(2)创建并使用使用sqoop数据库,使用以下命令:
create database sqoop
use sqoop

#(3)创建student表用于演示导入MySQL数据到HDFS,使用以下命令:
CREATE TABLE IF NOT EXISTS `student`(
`id` int PRIMARY KEY COMMENT '编号',
	`name` varchar(20) COMMENT '名字',
	`age` int COMMENT '年龄'
)COMMENT '学生表';

#(4)	向student表插入一些数据,使用以下命令:
INSERT INTO student VALUES(1, 'zhangsan', 20);
INSERT INTO student VALUES(2, 'lisi', 24);
INSERT INTO student VALUES(3, 'wangwu', 18);
INSERT INTO student VALUES(4, 'zhaoliui', 22);

#(5)	创建student2表用于装载Hive导出的数据,使用以下命令:
CREATE TABLE IF NOT EXISTS `student2`(
`id` int PRIMARY KEY COMMENT '编号',
`name` varchar(20) COMMENT '名字',
`age` int COMMENT '年龄'
)COMMENT '学生表';

dbeaver远程登录MySQL失败:

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

#查看状态sudo ufw status#查看端口netstat -an | grep 3306#编辑端口#注释掉43行的bind-addresssudo vim /etc/mysql/mysql.conf.d/mysqld.cnf 
#bind-address           = 127.0.0.1##修改端口,需要重启虚拟机sudo reboot

数据准备完成后:

  • student表:

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

  • student2表:

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

1.3.4.2 Hive的准备(也在dbeaver中执行):
--(1)	启动hive,使用以下命令:
hiveserver2
--(2)	打开DBeaver连接Hive

--(3)	创建sqoop数据库,使用以下命令:
CREATE DATABASE sqoop;

--(4)	使用sqoop数据库,使用以下命令:
USE sqoop;

--(5)	创建student表用于装载MySQL导入的数据,使用以下命令:
CREATE TABLE IF NOT EXISTS student(
		id     INT     COMMENT '编号',
		name   STRING  COMMENT '名字',
		age    INT     COMMENT '年龄'
) COMMENT '学生表'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ' ';
  • 如果搭建完HadoopHA后在启动Hive报错

hive启动时,提示java.net.UnknownHostException:ns

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

注意复制HDFS的core-site.xml和hdfs-site.xml到hive目录的conf下面

cp /usr/local/hadoop/etc/hadoop/hdfs-site.xml /usr/local/hive/confcp /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hive/conf

1.5 Sqoop命令

Sqoop 的常用命令

命令说明
list-databases列出所有数据库名
list-tables列出某个数据库下所有表
import将数据导入到 HDFS 集群,hive,hbase,hdfs本身等等
export将 HDFS 集群数据导出
help打印 sqoop 帮助信息
version打印 sqoop 版本信息

Sqoop 的公共参数

命令说明
–connect连接关系型数据库的URL
–username连接数据库的用户名
–password连接数据库的密码

Sqoop的 import 命令参数

参数说明
–fields-terminated-byHive中的列分隔符,默认是逗号
–lines-terminated-byHive中的行分隔符,默认是\n
–append将数据追加到HDFS中已经存在的DataSet中,如果使用该参数,sqoop会把数据先导入到临时文件目录,再合并。
–columns指定要导入的字段
–m或–num-mappers启动N个map来并行导入数据,默认4个。
–query或**–e**将查询结果的数据导入,使用时必须伴随参–target-dir,–hive-table,如果查询中有where条件,则条件后必须加上$CONDITIONS关键字
–table关系数据库的表名
–target-dir      指定导入数据存储的HDFS路径
–null-stringstring类型的列如果null,替换为指定字符串
–null-non-string非string类型的列如果null,替换为指定字符串
–check-column作为增量导入判断的列名
–incrementalmode:append或lastmodified
–last-value指定某一个值,用于标记增量导入的位置

Sqoop 的 export 命令参数

参数说明
–input-fields-terminated-byHive中的列分隔符,默认是逗号
–input-lines-terminated-byHive中的行分隔符,默认是\n
–export-dir存放数据的HDFS的源目录
-m或–num-mappers启动N个map来并行导出数据,默认4个
–table指定导出到哪个RDBMS中的表
–update-key对某一列的字段进行更新操作
–update-modeupdateonly或allowinsert(默认)

Sqoop 的命令案例

  • 导入到HDFS

#查看MySQL中已有的数据库名称sqoop list-databases --connect jdbc:mysql://localhost:3306/ --username sqoop --password 123456#查看MySQL中Sqoop数据库中的表,使用以下命令sqoop list-tables --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456#导入全部MySQL数据到HDFS,执行以下命令sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student --target-dir /user/student --delete-target-dir -m 1#执行完成后,去HDFS查看数据是否导入成功,使用以下命令:hdfs dfs -cat /user/student/part-m-00000#导入部分mysql数据到HDFS(导入时筛选)#--	query不与--table同时使用#必须在where后面加上$CONDITIONSsqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --target-dir /user/student --delete-target-dir -m 1 --query 'select * from student where age <20 and $CONDITIONS'


查看–target-dir指定的路径

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

  • 导入到Hive

    #导入MySQL数据到hivesqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop  --password 123456 --table student --target-dir /user/student2 --delete-target-dir --hive-import --fields-terminated-by " " --columns id,name,age --hive-overwrite --hive-table sqoop.student -m 1#导入部分MySQL数据到hive(覆盖导入)sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --target-dir /user/student2 --delete-target-dir -m 1 --query 'select * from student where age <20 and $CONDITIONS' --hive-import --fields-terminated-by " " --columns id,name,age --hive-overwrite --hive-table sqoop.student2 
    
    #增量导入部分MySQL数据到hive#--incremental append不能和--delete-target-dir一起用sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student --target-dir /user/student2 --hive-import --fields-terminated-by " " --columns id,name,age  --hive-table sqoop.student2 --check-column id --incremental append --last-value 3 -m 1

     

    • Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

    • Hdfs页面操作文件出现 Permission denied: user=dr.who,

    • #在xshellhdfs dfs -chmod -R 755 /


    • 问题:导入数据权限不足,导入hive失败

  • 导入到HBase

#导入数据到HBase,需要提前创建对应的表student#导入数据之前hbase shell
create 'student','info'#开始执行导入命令sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop  --password 123456 -table student -hbase-table "student" --hbase-row-key "id" --column-family "info" --columns "id,name,age" --split-by id -m -1
  • Hive导出到MySQL

#Sqoop 的导出命令案例sqoop export --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student2 --export-dir /usr/local/hive/warehouse/sqoop.db/student --input-fields-terminated-by " " -m 1

2. Flume

2.1Flume简介

  • Flume是一个分布式的、高可靠的、高可用的将大批量的不同数据源的日志数据收集、聚合、移动**到数据中心(**HDFS)进行存储的系统

    • 原子性

    • 1、可以高速采集数据,采集的数据能够以想要的文件格式及压缩方式存储在hdfs上;

    • 2、事务功能保证了数据在采集的过程中数据不丢失;

    • 3、部分Source保证了Flume挂了以后重启依旧能够继续在上一次采集点采集数据,真正做到数据零丢失。

2.2Flume架构

  • Agent 是 Flume 中最小的独立运行单位,一个 agent 就是一个 JVM(java虚拟机)

    • 含有三个核心组件,分别是 source、channel 和 sink

    • Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

2.3 Flume安装

#下载、上传、解压、重命名和授权https://mirrors.tuna.tsinghua.edu.cn/apache/flume/1.9.0/apache-flume-1.9.0-bin.tar.gz#上传到 /home/hadoop 目录sudo tar -xvf apache-flume-1.9.0-bin.tar.gz -C /usr/localsudo mv /usr/local/apache-flume-1.9.0-bin/ /usr/local/flumesudo chown -R hadoop /usr/local/flume

2.4 Flume配置

配置环境变量

#编辑环境变量vim /home/hadoop/.bashrc#在环境变量最后添加以下内容export FLUME_HOME=/usr/local/flumeexport PATH=$PATH:$FLUME_HOME/bin#刷新环境变量source /home/hadoop/.bashrc

配置 Agent

# 为 agent 起个名字叫做 a1# 设置 a1 的 sources 叫做 r1a1.sources = r1# 设置 a1 的 sinks 叫做 k1a1.sinks = k1# 设置 a1 的 channels 叫做 c1a1.channels  = c1


配置Source

# 设置 r1 的类型是 exec,用于采集命令产生的数据a1.sources.r1.type = exec# 设置 r1 采集 tail -F 命令产生的数据a1.sources.r1.command = tail -F /home/hadoop/tail-test.txt

配置 Channel

  • 两种常见类型:MemoryChannel和FileChannel

# 设置 c1 的类型是 memorya1.channels.c1.type = memory# 设置 c1 的缓冲区容量a1.channels.c1.capacity = 1000a1.channels.c1.transactionCapacity = 100

配置 Sink

# 设置 k1 的类型是 hdfsa1.sinks.k1.type = hdfs# 设置 k1 输出路径,按照时间在 hdfs 上创建相应的目录a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M/%S
a1.sinks.k1.hdfs.filePrefix = events-# 设置 k1 输出的数据保存为文本a1.sinks.k1.hdfs.fileType = DataStream
a1.sinks.k1.hdfs.writeFormat = Text# 把时间戳放入数据的头中a1.sinks.k1.hdfs.useLocalTimeStamp = true

组装 Source、Channel 和 Sink

# 设置 r1 连接 c1a1.sources.r1.channels = c1# 设置 k1 连接 c1a1.sinks.k1.channel = c1

2.5 Flume使用

了解tail -F的命令

#(1)进入/home/hadoop目录,使用以下命令:cd /home/hadoop/#(2)创建touch tail-test.txt文件,使用以下命令:touch tail-test.txt#(3)向tail-test.txt文件中追加一些内容,使用以下命令:echo 'hello 11111' >> tail-test.txtecho 'hello 22222'>> tail-test.txtecho 'hello 33333'>> tail-test.txt#(4)查看tail-test.txt文件中的内容,使用以下命令:cat tail-test.txt#(5)复制(新开)一个xshell窗口监控tail-test.txt文件内容的变化,使用以下命令:tail -F tail-test.txt#(6)回到上一个xshell窗口,继续向tail-test.txt文件中追加一些内容,使用以下命令:echo 'hello 44444' >> tail-test.txtecho 'hello 55555'>> tail-test.txtecho 'hello 66666'>> tail-test.txt#查看tail -F命令是否监控到内容的变化

使用flume

目标:把tail-test.txt文件中新增的内容给采集到HDFS

#搭配着Flume把tail-test.txt文件中新增的内容给采集到HDFS上。#(1)新开一个xshell窗口,创建exec-memory-hdfs.properties文件,使用以下命令:touch exec-memory-hdfs.properties#(2)编辑touch exec-memory-hdfs.properties文件,填写以下内容:sudo vim exec-memory-hdfs.properties# 单节点的 flume 配置文件# 为 agent 起个名字叫做 a1# 设置 a1 的 sources 叫做 r1a1.sources = r1# 设置 a1 的 sinks 叫做 k1a1.sinks = k1# 设置 a1 的 channels 叫做 c1a1.channels  = c1# 设置 r1 的类型是 exec,用于采集命令产生的数据a1.sources.r1.type = exec# 设置 r1 采集 tail -F 命令产生的数据a1.sources.r1.command = tail -F /home/hadoop/tail-test.txt# 设置 c1 的类型是 memorya1.channels.c1.type = memory# 设置 c1 的缓冲区容量a1.channels.c1.capacity = 1000a1.channels.c1.transactionCapacity = 100# 设置 k1 的类型是 hdfsa1.sinks.k1.type = hdfs# 设置 k1 输出路径,按照时间在 hdfs 上创建相应的目录a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M/%S
a1.sinks.k1.hdfs.filePrefix = events-# 设置 k1 输出的数据保存为文本a1.sinks.k1.hdfs.fileType = DataStream
a1.sinks.k1.hdfs.writeFormat = Text# 把时间戳放入数据的头中a1.sinks.k1.hdfs.useLocalTimeStamp = true# 设置 r1 连接 c1a1.sources.r1.channels = c1# 设置 k1 连接 c1a1.sinks.k1.channel = c1

启动 Flume

  • 启动三个节点zookeeper

zkServer.sh start
  • 先启动hdfs和yarn

start-dfs.sh 
start-yarn.sh
  • 启动 Flume

#启动 Flumeflume-ng agent -n a1 -c conf -f /home/hadoop/exec-memory-hdfs.properties

验证flume

#(4)在第一个xshell窗口大量的向tail-test.txt文件中追加数据echo 'hello 44444' >> tail-test.txtecho 'hello 55555' >> tail-test.txtecho 'hello 6666' >> tail-test.txt#2. 在xshell里,使用命令hdfs dfs -cat /flume/events/目录的名称/文件名,可以看到数据
  • 去HDFS的web监控页面查看是否采集到数据

  1. 能看到有新生成的目录

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装

  1. 在xshell里,使用命令

    hdfs dfs -cat /flume/events/目录的名称/文件名,可以看到数据

Sqoop安装配置,Flume安装配置,Sqoop命令,Sqoop和Flume工具的安装文章来源地址https://www.toymoban.com/news/detail-717004.html

到了这里,关于Sqoop和Flume简单安装配置使用详细解答的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python网络爬虫之selenium的详细安装配置以及简单使用--菜鸟复习日记

     学习python selenium已经是好久以前的事情了,自己都快要忘记了,所以写篇博客复习复习,本文包括安装selenium驱动以及selenium的一些简单使用。本文默认安装python以及selenium库。 目录 一、安装seleium的驱动(以谷歌浏览器为例) 二、selenium库的一些简单用法。         1.向输入框

    2024年02月06日
    浏览(30)
  • Sqoop与Flume的集成:实时数据采集

    将Sqoop与Flume集成是实现实时数据采集和传输的重要步骤之一。Sqoop用于将数据从关系型数据库导入到Hadoop生态系统中,而Flume用于数据流的实时采集、传输和处理。本文将深入探讨如何使用Sqoop与Flume集成,提供详细的步骤、示例代码和最佳实践,以确保能够成功实现实时数据

    2024年01月23日
    浏览(37)
  • SeaTunnel 、DataX 、Sqoop、Flume、Flink CDC 对比

    对比 对比项 Apache SeaTunnel DataX Apache Sqoop Apache Flume Flink CDC 部署难度 容易 容易 中等,依赖于 Hadoop 生态系统 容易 中等,依赖于 Hadoop 生态系统 运行模式 分布式,也支持单机 单机 本身不是分布式框架,依赖 Hadoop MR 实现分布式 分布式,也支持单机 分布式,也支持单机 健壮的

    2024年01月18日
    浏览(30)
  • 大数据环境搭建 Hadoop+Hive+Flume+Sqoop+Azkaban

    Hadoop:3.1.0 CentOS:7.6 JDK:1.8 这里网上教程很多,就不贴图了 【内存可以尽量大一些,不然Hive运行时内存不够】 创建tools目录,用于存放文件安装包 将Hadoop和JDK的安装包上传上去 创建server目录,存放解压后的文件 解压jdk 配置环境变量 配置免密登录 配置映射,配置ip地址和

    2024年02月09日
    浏览(29)
  • SeaTunnel 与 DataX 、Sqoop、Flume、Flink CDC 对比

    Apache SeaTunnel 是一个非常易用的超高性能分布式数据集成产品,支持海量数据的离线及实时同步。每天可稳定高效同步万亿级数据,已应用于数百家企业生产,也是首个由国人主导贡献到 Apache 基金会的数据集成顶级项目。 SeaTunnel 主要解决数据集成领域的常见问题: *  数据

    2024年04月13日
    浏览(21)
  • sqoop详细安装

    本文介绍下Centos7中sqoop的安装(Centos7以下版本中有些命令和centos7中有些不同,安时需注意下自己的linux版本) a、hadoop版本为hadoop-3.3.0 b、软件压缩包存储路径:/export/software/ c、解压后安装包存储路径:/export/server/ Index of /dist/sqoop/1.4.6 1、下载并解压sqoop安装文件至目录/export/serve

    2024年02月08日
    浏览(29)
  • 全网最全最细的PLSQL下载、安装、配置、使用指南、问题解答,相关问题已汇总

    1.1、PLSQL 下载链接 1.2、PLSQL下载链接,包含64位和32位。选择64位下载就好了。 1.3、推荐大家下载14.0.6版本的PLSQL,一般不推荐下载最新的,最新的虽然不一定有bug,但是遇到了就很恶心,但是上一个版本基本上就很稳定了。14.0.6不用下载chinese语言包,就是下图的Chinese Langua

    2024年01月19日
    浏览(32)
  • 华为路由器:RIP路由协议V2详细命令简单配置

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 软件:eNSP 环境:Win 10 路由信息协议(RIP) 是一种距离矢量协议,这表示它根据跳数来判断到达目标的最佳路由,但16跳不可达,有一定的局限性。所以仅适用于小型网络。 网络拓扑以及IP地址规划如下:

    2024年02月04日
    浏览(37)
  • 数据同步工具调研选型:SeaTunnel 与 DataX 、Sqoop、Flume、Flink CDC 对比

    Apache SeaTunnel 是一个非常易用的超高性能分布式数据集成产品,支持海量数据的离线及实时同步。每天可稳定高效同步万亿级数据,已应用于数百家企业生产,也是首个由国人主导贡献到 Apache 基金会的数据集成顶级项目。 SeaTunnel 主要解决数据集成领域的常见问题: * 数据源

    2024年02月04日
    浏览(37)
  • Flume采集数据到HDFS配置参数详细解析

    Flume采集数据到HDFS配置参数详细解析 配置解析: channel:管道;一个sink只能有一个管道,但一根管道可以有多个sink type : hdfs path:写入hdfs的路径,需要包含文件系统标识,比如:hdfs://192.168.40.101:9000/flume/%Y-%m-%d/ (可以使用flume提供的日期及%{host}表达式) filePrefix: 写入hdfs的文件名前缀,可以

    2024年02月02日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包