(三十六)大数据实战——ClickHouse数据库的部署安装实现

这篇具有很好参考价值的文章主要介绍了(三十六)大数据实战——ClickHouse数据库的部署安装实现。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

ClickHouse是俄罗斯的Yandex于2016年开源的列式存储数据库 DBMS ),使用C语言编写,主要用于在线分析处理查询( OLAP ),能够使用SQL查询实时生成分析数据报告。列式存储:数据按列进行存储,这使得 ClickHouse 能够高效地处理聚合查询和分析操作;高性能:ClickHouse 被设计用于快速查询和分析大规模数据,因此具有出色的性能。分布式架构:支持分布式部署,可以轻松地扩展到多个节点,以处理大量数据和并行查询。实时数据插入:支持实时数据的快速插入,并能在不影响查询性能的情况下进行数据更新。灵活的数据格式支持:支持多种数据格式,包括 JSON、CSV 等,同时也支持压缩和加密。

ClickHouse主要用于数据分析,ClickHouse 适用于各种数据分析场景,包括业务智能、报告、仪表板等;日志分析:由于其高性能和实时数据插入功能,ClickHouse 可以用于大规模日志分析;时序数据处理:适用于处理时序数据,例如传感器数据、监控数据等;实时报表:能够支持实时数据的快速查询和分析,适用于生成实时报表和统计数据。

本节内容主要是关于如何搭建ClickHouse数据库,实现Clickhouse数据库的部署安装。

ClickHouse部署安装
hadoop101 hadoop102 hadoop103
clickhouse clickhouse clickhouse
zookeeper zookeeper zookeeper

正文

①配置centos系统文件数限制,避免文件句柄数不够使用

- 在/etc/security/limits.conf中增加句柄数的配置

* soft nofile 65536
* hard nofile 65536
* soft nproc 131072
* hard nproc 131072

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 在/etc/security/limits.d/20-nproc.conf的配置中也增加以上句柄数的配置

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 查看配置修改是否生效:ulimit -a

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse
- 将上述俩个配置文件分发到hadoop102和hadoop103服务器上,使配置生效

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

② 分别在hadoop101、hadoop102、hadoop103服务器安装系统依赖

- 使用yum安装依赖

sudo yum install y libtool
sudo yum install y *unixODBC*
sudo yum install -y yum-utils
sudo yum-config-manager --add-repo https://packages.clickhouse.com/rpm/clickhouse.repo

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

③ 关闭系统selinux安全配置,并重启hadoop101、hadoop102、hadoop103系统

- 修改/etc/selinux/config中的SELINUX=disabled,并重启系统reboot

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

④使用官方推荐的方式,使用yum命令分别在hadoop101、hadoop102、hadoop103安装clickhouse服务端和客户端

- 命令:sudo yum install -y clickhouse-server clickhouse-client

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

⑤启动clickhouse服务端并查看状态

- 命令:

//设置为开机自启动
sudo systemctl enable clickhouse-server
//取消开机自启动
sudo systemctl disable clickhouse-server
//启动clickhouse-server服务端
sudo systemctl start clickhouse-server
//查看clickhouse-server服务端状态
sudo systemctl status clickhouse-server
//停止clickhouse-server服务端
sudo systemctl stop clickhouse-server

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

⑥使用clickhouse客户端连接clickhouse数据库

- 命令:clickhouse-client -m

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

⑦修改clickhouse的配置文件/etc/clickhouse-server/config.xml,使得hadoop集群间可以相互访问

- 将<listen_host>::</listen_host> 配置打开,然后重启clickhouse服务

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 重启clickhouse服务

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 使用hadoop102的客户端连接hadoop101的服务

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

⑧验证clickhouse数据库是否可以正常使用

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

⑨配置副本:在hadoop101、hadoop102、hadoop103配置zookeeper,互为副本保证clickhouse数据库的高可用

- 在配置文件/etc/clickhouse-server/config.xml中配置zookeeper连接信息

 <zookeeper>
        <node>
            <host>hadoop101</host>
            <port>2181</port>
        </node>
        <node>
            <host>hadoop102</host>
            <port>2181</port>
        </node>
        <node>
            <host>hadoop103</host>
            <port>2181</port>
        </node>
</zookeeper>

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 分发配置文件config.xml到hadoop102、hadoop103服务器

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

 - 启动zookeeper服务器

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 重启clickhouse数据库服务器

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

 ⑩验证副本配置是否生效

- 分别在hadoop101、hadoop102、hadoop103服务器创建表t_order

# hadoop101
create table t_order (
 id UInt32, 
 sku_id String,
 total_amount Decimal(16,2), 
 create_time  Datetime
) engine = ReplicatedMergeTree('/clickhouse/table/01/t_order','101') 
partition by toYYYYMMDD(create_time)
primary key (id)
order by (id,sku_id);

# hadoop102
create table t_order (
 id UInt32, 
 sku_id String,
 total_amount Decimal(16,2), 
 create_time  Datetime
) engine = ReplicatedMergeTree('/clickhouse/table/01/t_order','102') 
partition by toYYYYMMDD(create_time)
primary key (id)
order by (id,sku_id);

# hadoop103
create table t_order (
 id UInt32, 
 sku_id String,
 total_amount Decimal(16,2), 
 create_time  Datetime
) engine = ReplicatedMergeTree('/clickhouse/table/01/t_order','103') 
partition by toYYYYMMDD(create_time)
primary key (id)
order by (id,sku_id);

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 在hadoop101表t_order插入数据

insert into t_order values
(101,'sku_001',1000.00,'2020-06-01 12:00:00'),
(102,'sku_002',2000.00,'2020-06-01 12:00:00'),
(103,'sku_004',2500.00,'2020-06-01 12:00:00'),
(104,'sku_002',2000.00,'2020-06-01 12:00:00'),
(105,'sku_003',600.00,'2020-06-02 12:00:00'); 

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 在hadoop101查询数据

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 在hadoop102查询数据

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

- 在hadoop103查询数据

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

 ⑪查询zookeeper中的clickhouse存储数据是否成功

(三十六)大数据实战——ClickHouse数据库的部署安装实现,大数据,大数据,clickhouse

结语

至此,关于ClickHouse数据库的部署安装实现的内容到这里就结束了,我们下期见。。。。。。文章来源地址https://www.toymoban.com/news/detail-826574.html

到了这里,关于(三十六)大数据实战——ClickHouse数据库的部署安装实现的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据实验 实验四:NoSQL 和关系数据库的操作比较

    理解四种数据库(MySQL、HBase、Redis 和 MongoDB)的概念以及不同点; 熟练使用四种数据库操作常用的 Shell 命令; 熟悉四种数据库操作常用的 Java API。 操作系统:centos7 Hadoop 版本:3.3; MySQL 版本:8.0.22; HBase 版本:2.4.11; Redis 版本:5.0.5; MongoDB 版本:5.0; JDK 版本:1.8; Java

    2024年04月16日
    浏览(38)
  • (十六)大数据实战——安装使用mysql版的hive服务

    hive默认使用的是内嵌据库 derby ,Derby 是一个嵌入式数据库,可以轻松地以库的形式集成到应用程序中。它不需要独立的服务器进程,所有的数据存储在应用程序所在的文件系统中。为了支持hive服务更方便的使用,我们使用mysql数据库的方式,使得服务部署更加灵活。数据库

    2024年02月13日
    浏览(39)
  • 【数据库学习】ClickHouse(ck)

    是一个用于联机分析(OLAP)的列式数据库管理系统(DBMS)。 按列存储,列越多速度越慢; 按列存储,数据更容易压缩(类型相同、区分度);==》每次读取的数据就更多,更少的io。 聚合性能高; 类sql操作;仅支持数据的查询、批量写入、批量删除。 用于磁盘查询,同时也利用

    2024年02月02日
    浏览(55)
  • Ubuntu安装clickhouse数据库

    目录 1、更新包列表  2、运行安装脚本 3、设置密码 4、启动服务 5、测试连接 6、下载官方测试数据         1、下载数据集直接执行以下代码          2、创建数据库         3、创建数据表(1)         4、创建数据表(2)         5、导入数据 7、测试查询  8、远程连接

    2024年02月02日
    浏览(46)
  • ClickHouse与Doris数据库比较

    都说“实践是检验真理的唯一标准”,光说不练假把式,那么本文就通过实际的测试来感受一下Doris和clickhouse在读写方面的性能差距,看看Doris盛名之下,是否真有屠龙之技;clickhouse长锋出鞘,是否敢缚苍龙? 废话不多说,上货。 在这里,我使用多台物理机搭建了clickhouse和

    2024年01月22日
    浏览(49)
  • (二十六)大数据实战——kafka集群之Kraft模式安装与部署

    本节内容主要介绍kafka3.0版本以后,一种新的kafka集群搭建模式看kraft,在该模式下,kafka高可用不在依赖于zookeeper,用 controller 节点代替 zookeeper,元数据保存在 controller 中,由 controller 直接进 行 Kafka 集群管理。 ①解压kafka安装包到/opt/module/kafka-kraft目录下 - 命令: ②修改k

    2024年02月08日
    浏览(49)
  • Oracle系列十六:数据库备份

    数据库备份按照备份状态分为逻辑备份与物理备份。 (1)逻辑备份 利用SQL从数据库中抽取数据,并存为二进制文件的形式进行备份。业务数据库采用此种方式,不需要在归档模式下。如Oracle中,对数据库对象(用户、表、存储过程)利用EXPORT导出,利用IMPORT把逻辑备份文件

    2024年02月08日
    浏览(37)
  • 大数据ClickHouse(五):数据库引擎介绍与实例演示

    文章目录 数据库引擎介绍与实例演示 一、Ordinary默认数据库引擎 二、MySQL数据库引擎

    2024年02月03日
    浏览(51)
  • MySQL基础(三十八)数据库备份与恢复

    物理备份 :备份数据文件,转储数据库物理文件到某一目录。物理备份恢复速度比较快,但占用空间比较大,MySQL中可以用 xtrabackup 工具来进行物理备份。 逻辑备份 :对数据库对象利用工具进行导出工作,汇总入备份文件内。逻辑备份恢复速度慢,但占用空间小,更灵活。

    2024年02月06日
    浏览(65)
  • 【MySQL数据库 | 第十六篇】存储引擎

    目录  前言:  MySQL体系结构图: 存储引擎简介: 1. InnoDB存储引擎: 2. MyISAM存储引擎: 3. MEMORY存储引擎: 4. NDB Cluster存储引擎: 5. ARCHIVE存储引擎: 存储引擎语法: ACID与行级锁:  总结: 经过前面15篇的学习,我们已经学完了SQL的基本语法内容,大致掌握了数据库的操作

    2024年02月08日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包