基于云原生网关的全链路灰度实践

这篇具有很好参考价值的文章主要介绍了基于云原生网关的全链路灰度实践。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

作者: 倪海峰(海迩)

前言

随着企业规模的不断扩大,传统单体应用已很难进一步支持业务的发展,业务的迭代速度已经难以满足业务的增长,此时企业会对应用系统做微服务化的改造,降低业务的耦合度,提升开发迭代的效率,让开发更加敏捷。

系统架构微服务化的,原本的愿景是希望通过将系统的颗粒度变小,提升业务的迭代效率。但是在实践微服务架构的过程中,尤其是在服务数量越来越多之后,那么引发的效率问题可能会大于微服务架构本身所带来的架构红利。

微服务架构下的发布挑战

系统拆分为微服务之后,其中一项业务目标便是希望通过将服务粒度变小,实现业务的高频交付。但是在实践微服务架构的过程中,将上下游服务完全解耦几乎能够存在于理想状态下。常见的情况是,频繁地对微服务做变更发布,通常都会导致业务流量出现大量损失,于是研发人员不得不在晚上业务低峰期做变更。并且在发布过程中,涉及到的上下游团队必须全程待命,以便于在发布阶段发现问题之后,立刻修复,极大地降低了研发人员的幸福感。

如何落地可灰度、可观测、可回滚的安全生产能力,满足业务高速发展情况下快速迭代和小新验证的诉求,是企业在微服务化深入过程中必须面对的问题。

本文将重点讲述在阿里云 EDAS ACK 环境下,对 Spring Cloud 微服务应用进行全链路流量控制的整体方案。通过全链路流量控制功能,可以快速创建流量控制环境,将具有一定特征的流量路由到目标版本应用。

灰度发布实践原则

在微服务架构下,灰度发布实践的关键在于:分层、隔离、兼容这三大要素,在此基础之上,具备业务可观测的能力。分层是在设计灰度发布方案前的前期准备,而隔离和兼容则是实现灰度的主要手段。

在实现全链路灰度场景的流量隔离有两种实现思路:基于物理环境隔离和基于逻辑环境隔离两种。

基于物理环境的隔离,需要为要灰度的服务搭建一套网络隔离、资源独立的环境,在其中部署服务的灰度版本。由于正式环境与灰度环境相对隔离,正式环境无法访问到灰度环境的服务,因此即便是未做版本更新的服务以及各组件,同样也需要在灰度环境中部署。从实现原理上来讲,常见的蓝绿部署便是其中一种技术实现。但是在线上服务足够多的场景下,基于物理环境隔离的方案灵活度相对不足,同时会造成大量的冗余节点以及额外的资源开销。

逻辑环境隔离方案的核心在于对流量染色,当流量在调用链上转发请求时,经过网关以及各个中间件及微服务来识别到被染色的灰度流量,并将请求动态转发至对应的灰度版本。再根据规则作出动态决策。因此当版本发生变化时,调用链路的转发规则同样也会实时作出改变。相比于通过搭建一套物理上隔离的灰度环境,基于逻辑动态调整策略的方式能够节省大量的资源及运维成本,并可以帮助开发者实现更为复杂的全链路控制场景。

标签路由通过标签将一个或多个服务的提供者划分到同一个分组,从而约束流量只在指定分组中流转,实现流量隔离的目的。标签路由可以作为多版本开发测试、同应用的多版本流量隔离以及 A/B Testing 等场景的能力基础。实际上,标签路由的使用场景还有许多,例如实现全链路流控、同 AZ 优先、全链路压测、容灾多活等等。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

最后,在具体的工程实践中,并非所有组件通过隔离便能够有效地实现流量的精细化控制,例如数据库等有状态组件,无论是从实施成本还是从技术视角,都不会在每次上线时都重新搭建一套全新的表库,对数据同步之后再刷新对应版本后的 SQL 脚本。因此,在特定场景下的新老版本兼容就成为了必要的前置条件。

架构分析

该项目中后端架构技术栈为 Spring Cloud Alibaba,使用了一整套的阿里云云原生的最佳实践,其中也包括 EDAS、MSE 云原生网关。前端应用使用 VUE 开发,其资源均为静态资源。从应用架构中可以得知,静态资源以 Nginx 为 HTTP 服务对外提供。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

在此次架构设计中,业务需求如下:

  1. 前端到后端能够按照按照不同的复杂规则(如 header 中的城市、UserID 等)做精细化路由控制,同时当下游服务灰度版本存在异常或不存在时,能够降级至基线服务处理请求。

  2. 按照一定百分比随机对线上流量做灰度发布。

  3. 支持对消息队列中消息打标,并由对应的 Consumer 消费。

  4. 尽可能的零代码改造。

  5. 需要对消息队列中的消息做灰度分组,并由对应的 Consumer 将消息消费。

  6. 需要具备灰度流量的可观测问题。

EDAS 流量控制

EDAS 是应用托管和微服务管理的云原生 PaaS 平台,提供应用开发、部署、监控、运维等全栈式解决方案,同时支持 Spring Cloud 和 Apache Dubbo 等微服务运行环境。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

在 EDAS 平台中,用户可以通过 WAR 包、JAR 包或镜像等多种方式快速部署应用到多种底层服务器集群,轻松部署应用的基线版本和灰度版本。同时,EDAS 能够无缝接入 MSE 的服务治理能力,无需额外安装 Agent 即可零代码入侵获得应用无损上下线、金丝雀发布、全链路流量控制等高级特性。

MSE 云原生网关是阿里云推出的新一代网关,将传统流量网关和微服务网关合并,降低资源成本的同时为用户提供精细化的流量治理能力,支持 ACK 容器服务、Nacos、Eureka、固定地址、FaaS 等多种服务发现方式,支持多种认证登录方式快速构建安全防线,提供全方面、多视角的监控体系,如指标监控、日志分析以及链路追踪。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

利用 EDAS 微服务治理能力,配合云原生网关,可以轻松利用多套逻辑环境实现全链路灰度。EDAS 实现了基于字节码增强技术在编译时对开发框架进行功能拓展,这种方案业务无感知,不需要修改任何一行业务代码,即可拥有全链路灰度的治理能力。

全链路流量灰度

流量入口: 入口应用微服务体系内的流量入口,该场景下对应的是 MSE 云原生网关。

泳道: 为相同版本应用定义的一套隔离环境。只有满足了流控路由规则的请求流量才会路由到对应泳道里的打标应用。一个应用可以属于多个泳道,一个泳道可以包含多个应用,应用和泳道是多对多的关系。

基线环境: 未打标的应用属于基线稳定版本的应用,即稳定的线上环境。

流量回退: 泳道中所部署的服务数量并非要求与基线环境完全一致,当泳道中并不存在调用链中所依赖的其他服务时,流量需要回退至基线环境,进一步在必要的时候路由回对应标签的泳道。

泳道组: 泳道的集合。泳道组的作用主要是为了区分不同团队或不同场景。

入口应用: 将符合流控规则的流量打上对应的灰度标识,并使该流量在下游应用中走到对应的应用版本中。由于在本案例中实际使用场景中为 MSE 云原生网关+EDAS,其打标能力全部集中在 MSE 云原生网关上。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

从上图中可以看到,用户分别创建了泳道 A 与泳道 B,里面涉及了交易中心、商品中心两个应用,分别是标签标签 2,其中 A 泳道分流了线上 30% 的流量,B 泳道分流了线上 20% 的流量, 基线环境(即未打标的环境)分流了线上 50% 的流量。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

通过在 deployment 上配置注解 alicloud.service.tag: gray 标识应用灰度版本,并带标注册到注册中心中,在灰度版本应用上开启全链路泳道(经过机器的流量自动染色),支持灰度流量自动添加灰度 x-mse-tag: gray 标签,通过扩展 consumer 的路由能力将带有灰度标签的流量转发到目标灰度应用。

创建泳道组和泳道

在创建泳道时需要选择入口类型,目前仅支持部署在 EDAS 中的入口应用作为泳道入口应用,需要将泳道中涉及的基线版本和灰度版本添加到泳道组涉及应用中。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

创建分流泳道,定义泳道名称,配置泳道流控规则。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

创建完成后会生成新泳道,点击泳道名称,将泳道标签值记录下来,本示例为 f2bb906。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

灰度应用部署

通过 edas 将应用克隆出灰度(gray)版本,选中所有需要灰度的应用。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

给所有灰度应用重命名,命名规则是在基线应用名称的后面加上 -gray 作区分,点击确定,等待应用克隆完成。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

当看到所有应用(包括灰度版本应用)已经处于运行中状态且实例数正常,即可进行下一步。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

加入泳道组及泳道

回到全链路流量控制页面,找到之前创建的泳道组,点击编辑,将基线和灰度应用都添加进泳道组中,然后点击确定。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

在创建完成的灰度泳道中添加灰度应用,找到灰度泳道,点击编辑,添加泳道应用,选择 gray 版的应用。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

MSE 云原生网关路由配置

在 EDAS 控制台左侧菜单栏中选中流量管理-应用路由-MSE 网关路由,点击创建路由。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

定义路由名称,选择 MSE 网关实例,配置关联域名、匹配规则、请求方法等,这里的路由是到基线应用,无需配置请求头(即无需匹配灰度规则)。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

服务来源选择 EDAS 注册中心,目标填入基线应用 a 的配置。注:这里如果选择应用后没有可选的服务,需要检查 k8s 集群上的 agent 状态。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

创建 MSE 云原生网关灰度路由

再创建一条 MSE 网关路由用于灰度版本应用,定义路由名称,选择 MSE 网关,添加请求头,key=tag,value=gray,在目标服务中选择灰度应用版本的 a 应用。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

给灰度路由添加策略配置,添加 Header 规则,其中 header key:x-mse-tag,header value: 的值为在第 4 步获取的泳道标签,添加规则后并将开启状态开关打开。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

添加完成后将对应 base 以及 gray 路由发布上线。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

在完成路由策略配置后,对网关后对应的下一跳服务路由,设置 fallback 目标服务到基线服务。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

消息灰度

流量入口: 入口应用微服务体系内的流量入口,该场景下对应的是 MSE 云原生网关。

RocketMQ 的订阅关系(Subscription)是系统中消费者获取消息、处理消息的规则和状态配置。订阅关系由消费者分组动态注册到服务端系统,并在后续的消息传输中按照订阅关系定义的过滤规则进行消息匹配和消费进度维护。消息队列 RocketMQ 的订阅关系按照消费者分组和主题粒度设计,因此一个订阅关系指的是某个消费者分组对于某个主题的订阅。

  1. 不同消费者分组对于同一个主题的订阅相互独立。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

  1. 同一个消费者分组对于不同主题的订阅也相互独立。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

在消息队列 RocketMQ 的领域模型中,消息由生产者初始化并发送到消息队列 RocketMQ 的服务端,消息按照到达消息队列服务端的顺序存储到对应 Topic 的指定队列中,消费者再按照指定的订阅关系从消息队列 RocketMQ 中获取消息并消费。

在实际业务场景中,同一个主题下的消息往往会被多个不同的下游业务方处理,各下游的处理逻辑不同,只关注自身逻辑需要的消息子集。针对这类场景,RocketMQ 的订阅关系支持在消息传输中按照订阅关系定义过滤规则进行消息匹配和消费进行维护。例如控制消费者在消费消息时,选择主题内的哪些消息进行消费,设置消费过滤规则可以高效地过滤消费者需要的消息集合,灵活根据不同业务场景设置不同的消息接受范围。

消息过滤主要通过以下几个关键流程实现:

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

  • 生产者:生产者在初始化消息时预先为消息设置一些属性和标签,用于后续消费时指定过滤目标。
  • 消费者:消费者在初始化及后续消费流程中通过调用订阅关系注册接口,向服务端上报需要订阅指定主题的哪些消息,即过滤条件。
  • 服务端:消费者获取消息时会触发服务端的动态过滤计算,消息队列 RocketMQ 版服务端根据消费者上报的过滤条件的表达式进行匹配,并将符合条件的消息投递给消费者。

RocketMQ 支持 Tag 标签过滤SQL 属性过滤两种场景。由于一条消息只能打一个 string 类型的标签,因此更适合一些简单过滤场景,而后者是通过生产者为消息设置K/V键值对作为属性,并设置 SQL92 语法的过滤表达式过滤多个属性,因此更适合一些复杂过滤场景。此外,Tag本身也是消息的系统属性,因此 SQL 过滤也兼容 Tag 过滤。在 SQL 语法中,Tag 的属性名称为 TAGS。

在介绍完了 RocketMQ 订阅模式之后,再一起看下消息灰度的实现方案。灰度发布的本质是解决环境隔离的问题。通过不同消息者分组区分正常和灰度版本。在不改变代码及应用配置的情况下,通过服务治理层的 agent 完成消息从发送到订阅的处理逻辑,整体方案思路如下:

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

1. 创建对应消费者组 首先需要用户对当前每个消费者分组预创建的对应的消费者分组 _grayID。例:serviceA_group 对应的分组名为 service_A_group_grayID。(备注:命名必须按照 _gray 的规范创建,否则 agent 在获取到对应的灰度标识之后,无法将 service 同消费者分组建立关联,或直接报错消费者分组不存在)

2. 消息染色: 通过用户定义的灰度环境分组,为对应的服务染色并打上环境标识。当服务开始正常发送消息到对应的 Topic 时,通过服务的agent劫持到对应的消息后,打上自定义标签 putUserProerty(“gray_tag”, “$灰度标识”),并将消息放到对应的 Topic。

3. 动态建立订阅关系: 当消费者被添加到对应的环境之后,会基于环境标识被分配到对应的消费者分组中。并基于消费者组同 Topic 动态建立订阅关系。

4. 消息过滤: 由于生产者会将无论是灰度环境还是生产环境的消息推送到同一个 Topic 中,因此不同的消费者组需要基于对应环境的消息过滤进行消费。在技术实现上,RocketMQ 基于 Tag 和消息属性两种方式均能满足业务场景。方案中之所以采用自定义消息属性的方式,更多的是出于工程实践的考虑。由于消息 Tag 对于一条消息仅支持添加一个 string 类型的消息,在一些业务场景下,可能 Tag 会被应用的业务场景所占用,从而出现不可控的场景,因此通过自定义消息属性,再消费者的 agent 端基于 SQL92 语法实现消息过滤,从容错性上相对更优,因此推荐使用自定义消息属性实现消息分组。

该方案的主要优势在于对于管理和使用人员来说,没有太高的使用成本,在实际完成灰度发布过程中,无需频繁修改代码及对应配置信息。

消息灰度配置

在泳道列表中查询到已创建应用的基线、灰度泳道,点击泳道名称查看泳道详情,并获取泳道标签。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

如上图,取得 dev1 泳道标签为 9e4be42,dev2 泳道标签为 e396fee。登录消息服务 RocketMQ 控制台,根据上一步骤获取的泳道标签创建灰度消费者组。如图所示,根据步骤 3 获取的泳道标分别创建消费组 MyConsumerGroup_e396fee 和 MyConsumerGroup_9e4be42。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

在 EDAS 控制台选择应用管理,进入应用列表。找到(需要进行灰度流控的消息生产者和消费者)应用 B、应用 B-dev1、应用 B-dev2、应用 C、应用 C-dev1、应用 C-dev2,进入应用详情页进行部署并添加以下环境变量:所有应用均配置环境变量:

profiler.micro.service.mq.gray.enable=true

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

profiler.micro.service.mq.gray.enable=true
profiler.micro.service.mq.gray.cunsumer.base.excluded.tags=9e4be42,e396fee

基线应用C额外配置环境变量:

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

注: profiler.micro.service.mq.gray.cunsumer.base.excluded.tags 的值通过步骤 3 获取的泳道标签通过逗号“,”拼接得到,若仅有一个灰度环境不需要用逗号拼接。需按实际泳道修改。

消息服务订阅关系检查

登录消息服务 RocketMQ 控制台,查看消费组的订阅关系,如下图:

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

默认消费组 MyConsumerGroup 由基线应用 C 订阅,并过滤带有灰度标的消息。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

灰度消费组 MyConsumerGroup_e396fee 和 MyConsumerGroup_9e4be42 分别只订阅带有对应灰度标的消息。

基于客户端请求实现前端灰度

基于客户端请求IP实现前端灰度策略通常的做法是通过 nginx 配置,在用户流量到达 nginx 时,检查用户请求中 http_x_forwarded_for 中的关键字,根据关键字值的不同,重定向请求到不同的前端版本,如下图所示:

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

Nginx 配置代码如下:

set $canary_flag main;         # 定义目录变量
set $flag_page 0;            # 定义灰度条件的初始判断值
if ($http_x_forwarded_for ~ "(xxx.xxx.xxx.01|xxx.xxx.xxx.02|xxx.xxx.xxx.03")  {  # 判断来源IP,设置灰度条件的初始值
   set $flag_page "${flag_page}1";
}

在实际项目中,基于 http_x_forwarded_for 的灰度请求,由于需要枚举出对应的请求 IP,对于客户端有明确的指向性,主要能够解决开发测试人员在发布完成后,在生产环境做业务验证的场景。

基于 IP 的灰度策略也有其自身的局限性,在生产环境下,显然无法满足需要真实随时流量做业务验证的场景。比较通用的方式可通过城市、省份信息做灰度规则判断。在此次方案设计中,前端站点使用阿里云 CDN 做静态加速,而通过阿里云 CDN 的边缘脚本,能够将客户端请求 IP 转换为对应的城市信息。

边缘脚本(EdgeScript,简称 ES)是一个可快速实现 CDN 定制配置的工具箱,当 CDN 控制台上的标准配置无法满足业务需求时,可以尝试使用边缘脚本简单编程实现。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

边缘脚本内置了 CDN 节点可以识别的变量、简单的判断语句,同时提供了大量阿里云 CDN 封装好的函数供用户直接调用。通过简单的变量判断并调用现成的函数,即可满足绝大部分定制的鉴权、缓存、限速、请求头增减等定制配置需求,可以有效地解决定制化配置需求无法实现、业务变更不敏捷的问题。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

边缘脚本的执行位置如图所示,当客户端请求到达 CDN 节点后,节点网关会根据在控制台上设置的标准配置、边缘脚本规则对请求进行处理。以 CDN 控制台上的标准配置为参照物,边缘脚本可选择在请求处理的最前面或最后面生效。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

基于省份城市对流量打标,可通过 IP 地址库识别到请求 IP 所在城市。当前链路后端 API 使用到了阿里云 CDN。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

EdgeScript 规则代码如下:

cou = $ali_hook_ip_country_en
pro = $ali_hook_ip_region_en
city = $ali_hook_ip_city_en
regiont = concat(city,',',pro,',',cou)
region = lower(regiont)
add_req_header('X-Client-Ip-City',region)
add_rsp_header('X-Client-Ip-City',region)

在 Nginx 上对 X-Client-Ip-City 所获取的值做判断,当满足灰度规则时,将请求带上灰度 header,请求到对应网关的灰度规则。

最后,在 MSE 云原生网关控制台,选择对应的 MSE 云原生网关,进入路由管理-路由配置中找到对应的路由进行编辑。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

请求头(Header)中设置为:x-client-ip-city 正则匹配 .guangdong.,如下图所示:

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

灰度流量观测与告警

在全链路灰度发布场景下,由于生产环境会存在两个应用版本,具备较高的运维复杂度。为了能够在出现流量逃逸问题时尽早识别,需要具备灰度流量的可观测能力与逃逸告警能力,当出现非预期流量请求的情况下,开发人员能够通过监控视图对逃逸情况快速分析,并在第一时间通知到相应职能团队对告警进行处理。

基于上述可观测需求,在流量经过 MSE 云原生网关的同时,在路由配置中对应 Header 以满足对所有流量走向的可观测需求。

基于云原生网关的全链路灰度实践,云原生,微服务,分布式应用

具体的判定规则为:若 base 路由存在灰度流量、或灰度路由中匹配到基线流量,此时便认为存在流量逃逸。

总结

本文完整介绍了基于物理环境隔离和基于逻辑环境隔离两种方案,其中对基于逻辑环境隔离方案进行详细分析对涉及到的各个技术点做了相关介绍,并基于 EDAS 及 MSE 云原生网关的落地方案,并给出相关产品配置用例。

其中 MSE 为微服务提供了云原生网关、注册和配置中心、微服务治理等丰富的微服务相关能力,EDAS 以应用为视角,深度融合集成 MSE 的各个原子能力,为微服务应用管理提供了一个最佳实践参考,欢迎大家体验交流。文章来源地址https://www.toymoban.com/news/detail-553795.html

到了这里,关于基于云原生网关的全链路灰度实践的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基线监控:基于依赖关系的全链路智能监控报警

    更多技术交流、求职机会、试用福利,欢迎关注 字节跳动数据平台微信公众号,回复【1】进入官方交流群 字节跳动数据平台开发套件数据开发团队自研了 基于依赖关系的全链路智能监控报警——基线监控, 目前已在字节跳动内部得到广泛使用,覆盖抖音、电商、广告等1

    2024年02月01日
    浏览(36)
  • 微服务全链路灰度方案介绍

    目录 一、单体架构下的服务发布 1.1 蓝绿发布 二、微服务架构下的服务发布 三、微服务场景下服务发布的问题 四、全链路灰度解决方案 4.1 物理环境隔离 4.2 逻辑环境隔离 4.3 全链路灰度方案实现技术 4.3.1 标签路由 4.3.2 节点打标 4.3.3 流量染色 4.3.4 分布式链路追踪 4.3.4 逻辑

    2024年02月03日
    浏览(35)
  • 分布式链路追踪与云原生可观测性

    Dapper, a Large-Scale Distributed Systems Tracing Infrastructure - Google Dapper,大规模分布式系统的跟踪系统 大规模分布式系统的跟踪系统:Dapper设计给我们的启示 阿里巴巴鹰眼技术解密 - 周小帆 京东云分布式链路追踪在金融场景的最佳实践 分布式链路追踪在字节跳动的实践 可视化全链路

    2024年04月11日
    浏览(33)
  • 案例实践丨基于SkyWalking全链路监控的微服务系统性能调优实践篇

    1背景 随着开源社区和云计算的快速推进,云原生微服务作为新型应用系统的核心架构,得到了越来越广泛的应用。根据Gartner对微服务的定义:“微服务是范围狭窄、封装紧密、松散耦合、可独立部署且可独立伸缩的应用程序组件。” 微服务之父,马丁.福勒,对微服务概述

    2024年02月09日
    浏览(37)
  • 云原生开发:从容器到微服务的全栈指南

    🎉欢迎来到云计算技术应用专栏~云原生开发:从容器到微服务的全栈指南 ☆* o(≧▽≦)o *☆嗨~我是IT·陈寒🍹 ✨博客主页:IT·陈寒的博客 🎈该系列文章专栏:云计算技术应用 📜其他专栏:Java学习路线 Java面试技巧 Java实战项目 AIGC人工智能 数据结构学习 云计算技术应用

    2024年02月08日
    浏览(45)
  • Soul 云原生网关最佳实践

    Soul 是基于兴趣图谱和游戏化玩法的产品设计,属于新一代年轻人的虚拟社交网络。成立于2016年,Soul 致力于打造一个“年轻人的社交元宇宙”,最终愿景是“让天下没有孤独的人”。在 Soul,用户可以无顾虑地表达自己,认知他人,探索世界,交流兴趣和观点,获得精神共鸣

    2024年02月02日
    浏览(40)
  • APM建设踩了哪些坑?去哪儿旅行分布式链路追踪系统实践

    分布式链路追踪系统在企业的APM体系中扮演着重要的角色。本文分享了去哪儿旅行构建分布式链路追踪系统的实践经验。从APM整体架构设计入手,讲述了日志收集、Kafka传输和Flink任务处理等环节的性能优化实践和踩坑经验。 同时,作者结合丰富的分布式系统架构经验,探讨

    2024年02月05日
    浏览(47)
  • 第27天-熔断,降级,限流,网关流控,服务链路追踪

    1.1.1.熔断 A服务调用B服务某个功能,由于网络不稳定问题,或者B服务卡机,导致功能时间超长。如果这样的次数太多,我们就可以直接将B服务断路(A不再请求B接口),凡是调用B服务就直接返回降级数据,不必等待B服务的超长执行,这样B服务的故障问题,就不会级联影响到

    2024年02月15日
    浏览(40)
  • 【Quarkus技术系列】打造基于Quarkus的云原生微服务框架实践(1)

    前提介绍 本系列文章主要讲解如何基于Quarkus技术搭建和开发\\\"专为Kubernetes而优化的Java微服务框架\\\"的入门和实践,你将会学习到如何搭建Quarkus微服务脚环境及脚手架,开发Quarkus的端点服务,系统和应用层级的配置介绍与Quarkus的编程模型分析,创建Quarkus的应用Uber-jar文件以及

    2024年02月13日
    浏览(46)
  • 微服务之分布式链路追踪

    在微服务框架中,一个由客户端发起的请求在后端系统中会经过多个不同的的服务节点调用来协同产生最后的请求结果,每一个前段请求都会形成一条复杂的分布式服务调用链路,链路中的任何一环出现高延时或错误都会引起整个请求最后的失败。 在分布式与微服务场景下,

    2024年04月22日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包