【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件

这篇具有很好参考价值的文章主要介绍了【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Linkis 是微众银行开源的一款 数据中间件,用于解决前台各种工具、应用,和后台各种计算存储引擎间的连接、访问和复用问题。

1.引言

Linkis,一个打通了多个计算存储引擎如 SparkTiSparkHivePythonHBase 等,对外提供统一 REST / WebSocket / JDBC 接口,提交执行 SQLPysparkHiveQLScala 等脚本的数据中间件。

Linkis 基于微服务架构,提供了金融级多租户隔离、资源管控、权限隔离等企业级特性,支持统一变量、UDF、函数、用户资源文件管理,具备高并发、高性能、高可用的大数据作业 / 请求全生命周期管理能力。

2.背景

大数据技术的广泛应用,催生出层出不穷的上层应用和下层计算引擎。

通过引入多个开源组件来实现业务需求,不断更新和丰富大数据平台架构,几乎是现阶段所有企业的通用做法。

如下图所示,当我们的上层应用、工具系统,和底层的计算存储组件越来越多时,整个数据平台的情况就会变成如上图的网状结构。

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件
不断引入新组件来实现业务需求,越来越多的痛点也随之产生:

  • 业务需求变化多端,上层组件各具特色,用户使用起来割裂感强烈,学习成本高昂。
  • 数据种类繁多,存储和计算非常复杂,一个组件一般只解决一个问题,开发人员必须具备完善的技术栈。
  • 新组件的引入,在多租户隔离、用户资源管理、用户权限管理等无法兼容原有数据平台,自上而下的定制化开发,不仅工程浩大,而且重复造轮子。
  • 上层应用直接对接底层计算存储引擎,一旦底层环境发生任何改变,都会直接影响业务产品的正常使用。

3.设计初衷

如何提供统一的数据中间件,对接上层应用工具,屏蔽掉底层的各种调用和使用细节,真正做到让业务用户只需关注业务实现,就算底层平台机房扩建、整体搬迁都不受影响,是 Linkis 的设计初衷!

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件

4.技术架构

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件
如上图所示,我们基于 SpringCloud 微服务技术,新建了多个微服务集群,来打造 Linkis 的中间件能力。

每个微服务集群都承担系统的一部分功能职责,我们对其进行了如下明确的划分。如:

  • 统一作业执行服务(UJES):一个分布式的 REST / WebSocket 服务,用于接收上层系统提交的各种访问请求。
    • 目前支持的计算引擎有:SparkPythonTiSparkHiveShell 等。
    • 支持的脚本语言有:SparkSQLSpark ScalaPysparkRPythonHQLShell 等;
  • 资源管理服务(RM): 支持实时管控每个系统和用户的资源使用情况,限制系统和用户的资源使用量和并发数,并提供实时的资源动态图表,方便查看和管理系统和用户的资源。
    • 目前已支持的资源类型:Yarn 队列资源、服务器(CPU 和内存)、用户并发个数等。
  • 统一存储服务(Storage):通用的 IO 架构,能快速对接各种存储系统,提供统一调用入口,支持所有常用格式数据,集成度高,简单易用。
  • 统一上下文服务(CS):统一用户和系统的资源文件(用户脚本、JARZIPProperties 等),用户、系统、计算引擎的参数和变量统一管理,一处设置,处处自动引用。
  • 物料库服务(BML):系统和用户级物料管理,可分享和流转,支持全生命周期自动管理。
  • 元数据服务(Database):实时的 Hive 库表结构和分区情况展示。

依赖这些微服务集群的相互协作,我们改善了整个大数据平台对外服务的方式和流程。

5.业务架构

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件

  • Gateway 网关:基于 Spring Cloud Gateway 进行了插件化功能增强,新增了前端 Client 与后台多 WebSocket 微服务 1 1 1 N N N 支持,主要用于解析和路由转发用户的请求到指定微服务。

  • 统一入口:统一入口是用户某一类引擎作业的 Job 生命周期管理者。从接收作业、作业提交给执行引擎、到作业执行信息反馈给用户,再到作业完成,Entrance 管理了一个作业的全生命周期。

  • 引擎管理器:引擎管理器负责管理引擎的全生命周期。负责向资源管理服务申请和锁定资源,并实例化新的引擎,也负责监控引擎的生命状态。

  • 执行引擎:执行引擎是真正执行用户作业的微服务,它由引擎管理器启动。为了提升交互性能,执行引擎直接跟统一入口进行交互,实时推送执行的日志、进度、状态和结果集给统一入口。

  • 资源管理服务:实时管控每个系统和每个用户的资源使用情况,管理引擎管理器的资源使用和实际负载,限制系统和用户的资源使用量和并发数。

  • Eureka:Eureka 是 Netflix 开发的服务发现框架,SpringCloud 将它集成在其子项目 spring-cloud-netflix 中,以实现 SpringCloud 的服务发现功能。每个微服务都内置了 Eureka Client,可以访问 Eureka Server,实时获得服务发现的能力。

6.处理流程

Linkis 如何处理上层系统提交的一条 SparkSQL?

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件

  • 上层系统的用户提交一个 SQL,先经过 GatewayGateway 负责解析用户请求,并路由转发给合适的统一入口 Entrance
  • Entrance 会先寻找该系统的该用户是否存在可用的 Spark 引擎服务,如果存在,则直接将请求提交给 Spark 引擎服务。
  • 不存在可用 Spark 引擎服务,开始通过 Eureka 的服务注册发现功能,拿到所有的引擎管理器列表,通过请求 RM 实时获取引擎管理器的实际负载。
  • Entrance 拿到负载最低的引擎管理器,开始要求引擎管理器启动一个 Spark 引擎服务。
  • 引擎管理器接收到请求,开始询问 RM 该系统下的该用户,是否可以启动新引擎。
  • 如果可以启动,则开始请求资源并锁定;否则返回启动失败的异常给到 Entrance
  • 锁定资源成功,开始启动新的 Spark 引擎服务;启动成功后,将新 Spark 新引擎返回给 Entrance
  • Entrance 拿到新引擎后,开始向新引擎请求执行 SQL。
  • Spark 新引擎接收 SQL 请求,开始向 Yarn 提交执行 SQL,并实时推送日志、进度和状态给 Entrance
  • Entrance 将获取的日志、进度和状态实时推送给 Gateway
  • Gateway 回推日志、进度和状态给前端。
  • 一旦 SQL 执行成功,Engine 主动将结果集推给 EntranceEntrance 通知前端拿取结果。

如何保证高实时性

众所周知,Spring Cloud 集成了 Feign 来作为微服务之间的通信工具。

基于 Feign 的微服务之间 HTTP 接口调用,只支持 A 微服务实例根据简单规则随机访问 B 微服务的某个实例。

但 Linkis 的执行引擎,却可以直接主动推送日志、进度和状态给请求它的统一入口,Linkis 是如何做到的?

Linkis 基于 Feign 实现了一套自己的底层 RPC 通信方案。

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件
如上图所示,我们在 Feign 的基础上,封装出了 SenderReceiver

Sender 作为发送端直接可用,用户可以指定访问某个微服务实例,也可以随机访问,还支持广播。

Receiver 作为接收端,需要用户实现 Receiver 接口,用于处理真正的业务逻辑即可。

Sender 提供三种访问方式,如下:

  • ask 方法为同步请求响应方法,要求接收端必须同步返回响应。

  • send 方法为同步请求方法,只负责同步将请求发送给接收端,不要求接收端给出答复。

  • deliver 则为异步请求方法,只要发送端的进程不异常退出,在稍后会通过其它线程将请求发送给接收端。

7.如何支撑高并发

Linkis 设计了 5 5 5 大异步消息队列和线程池,Job 每次占用线程不到 1 1 1 毫秒,保证每个统一入口可承接超 10000 10000 10000+ TPS 常驻型 Job 请求。

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件

  • 如何提高上层的请求吞吐能力?
    • EntranceWebSocket 处理器,内置一个处理线程池和处理队列,接收 Spring Cloud Gateway 路由转发的上层请求。
  • 如何保证不同系统不同用户的执行请求,互相隔离?
    • EntranceJob 调度池,每个系统的每个用户,都有一个专用线程,保证隔离度。
  • 如何保证 Job 执行高效?
    • Job 执行池,只用于提交 Job,一旦 Job 提交给了 Engine 端,则立马放入 Job 执行队列,保证每个 Job 占用执行池线程的时间不超过 1 1 1 毫秒。
    • RPC 请求接收池,用于接收和处理 Engine 端推来的日志、进度、状态和结果集,并实时更新 Job 的相关信息。
  • 如何实时将 Job 的日志、进度和状态推给上层系统?
    • WebSocket 发送池,专门用于处理 Job 的日志、进度和状态,将信息推给上层系统。

8.用户级隔离度和调度时效性

Linkis 设计了 Scheduler 模块 —— 可智能监控扩展的分组调度消费模块,用于实现 Linkis 的高并发能力。

【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件,大数据,大数据,Linkis,微服务,数据中间件
每个系统的每个用户,都会单独分组,来保证系统级和用户级的隔离度。

每个消费器均有一个独立的监控线程,统计消费器中等待队列的长度、正在执行的事件数量、执行时间的增长比例等指标。

消费器所对应的分组对象,会对这些指标设置阈值和告警比例,一旦某个指标超过阈值,或多个指标间的比例超过限定范围(比如监控到平均执行时间大于分发间隔参数,即认为超过阈值),监控线程就会立即对消费器进行相应的扩展。

扩展时,会充分利用上述的调参过程,具有针对性的调大某个参数,其它参数会自动随之得到扩展。

9.总结

Linkis 作为数据中间件,为实现对下层调用细节的屏蔽,做了许多的尝试和努力。

比如:Linkis 如何实现统一存储服务?Linkis 如何统一 UDF、函数和用户变量?

由于篇幅所限,本文不再详细论述,如您感兴趣,欢迎您访问官网:https://linkis.apache.org

有没有一套真正基于开源,经过金融级生产环境和场景的自研打磨完善,再回到开源社区的数据中间件,让人能相对放心的拿去服务于生产,支持金融级业务,具备企业级特性保障?

我们希望 Linkis 成为答案。文章来源地址https://www.toymoban.com/news/detail-698329.html

到了这里,关于【大数据】Linkis:打通上层应用与底层计算引擎的数据中间件的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【云原生技术】云计算中的数据库中间件简介

    云计算中的数据库中间件是位于客户端和数据库服务器之间的软件层,提供数据库操作的抽象、管理、优化和扩展功能。这些中间件可以简化数据库的管理,提高性能和安全性,同时使应用程序更容易与数据库进行交互。 主要功能 连接池管理 : 管理数据库连接,提供连接池

    2024年01月22日
    浏览(63)
  • 容器+虚拟机双引擎,ZStack Edge云原生超融合打通业务最后一公里

    企业数字化转型的焦点正在发生变化,云基础设施由资源到应用,数据中心从核心到边缘。面向云原生趋势,围绕应用升级,新一代超融合产品——云原生超融合应运而生。 云原生与边缘计算趋势催生云原生超融合 当前,企业客户对数字化转型的关注焦点正由“资源自动化

    2024年03月13日
    浏览(53)
  • mybatis多参数传递报错问题分析+硬核mybatis底层源码分析+@Param注解+图文实战环境分析【4500字详解打通,没有比这更详细的了!】

    ❗操作 mybatis 时报错: org.apache.ibatis.binding.BindingException: Parameter ‘tableName’ not found. Available parameters are [arg1, arg0, param1, param2] Maven MySQL 8.0.30 在本机 MySQL 中执行: 🍀 pom.xml导入依赖 🍀 jdbc.properties 在 resources 目录下新建 jdbc.properties 配置文件。 🍀 mybatis-config.xml 在 resources 目

    2024年02月12日
    浏览(49)
  • Hive On Spark 概述、安装配置、计算引擎更换、应用、异常解决

    前言: 本篇文章在已经安装 Hadoop 3.3.4 与 Hive 3.1.3 版本的基础上进行,与笔者版本不一致也没有关系,按照步骤来就行了。 如果你不想使用低版本的 Spark(例如: Spark 2.x 系列),请直接跳转到本文目录【重编译源码】。 详情查看我的这篇博客:Hadoop 完全分布式搭建(超详细)

    2024年02月07日
    浏览(39)
  • Springcloud中间件-----分布式搜索引擎 Elasticsearch

    该笔记是根据黑马程序员的课来自己写了一遍的,b站有对应教程和资料 第一部分 第二部分 第三部分 预计看完跟着练习5小时足够 1.1.1.elasticsearch的作用 elasticsearch是一款非常强大的开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容 例如:

    2024年02月08日
    浏览(60)
  • InnoDB 引擎 底层逻辑

    目录 0 课程视频 1 逻辑存储结构 1.1 结构图 1.2 表空间 - 记录 索引 存储记录 等数据 1.2.1 储存在 cd/var/lib/mysql - ll - 目录 mysql.ibd 1.3 段 - 索引 存储记录 具体存储 1.3.1 数据段 b+树 叶子节点 1.3.2 索引段 b+树的 非叶子节点 1.3.3 回滚段 1.3 区 - 1M = 16k * 64页 1.4 页 - 磁盘管理最新单

    2024年02月02日
    浏览(55)
  • 12. InnoDB引擎底层存储和缓存原理

    本文是按照自己的理解进行笔记总结,如有不正确的地方,还望大佬多多指点纠正,勿喷。 到目前为止,MySQL对于我们来说还是一个黑盒,我们只负责使用客户端发送请求并等待服务器返回结果,表中的数据到底存到了哪里?以什么格式存放的?MySQL是以什么方式来访问的这些

    2024年02月06日
    浏览(53)
  • 大数据计算分析技术:批处理、流计算、OLAP引擎

    目录 一、批处理的基石:MapReduce 1.工作流程 2.实例分析 二、流计算的代表:storm、spark streaming和flink 1.storm 2.spark streaming 3.flink  4.storm、spark streaming和flink 对比 三、OLAP引擎:Hive、Impala、Presto 1.Hive 1)Hive系统架构 2)Hive和传统数据库的区别 四 离线数据、批量计算、实时计算

    2024年02月16日
    浏览(48)
  • InnoDB引擎底层逻辑讲解——架构之磁盘架构

    系统表空间是change buffer(更改缓冲区)的存放区域,这是在8.0之后重新规划的,在5.x版本的时候,系统表空间还会存放innodb的数据字典undolog日志等信息,在8.0之后主要主要存放更改缓冲区的数据。如果innodb引擎当中,每一张表的独立表空间关闭着的话,那么所有的表的数据

    2024年02月14日
    浏览(40)
  • InnoDB引擎底层逻辑讲解——架构之内存架构

    下图为InnoDB架构图,左侧为内存结构,右侧为磁盘结构。 2.1 Buffer Pool缓冲池 2.2 Change Buffer更改缓冲区 2.3 Adaptive Hash Index自适应hash索引 查看自适应hash索引是否开启: 2.4 Log Buffer日志缓冲区 查看日志缓冲区的大小: 查看日志缓冲区刷新时机:

    2024年02月15日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包