11.Netty源码之线程模型

这篇具有很好参考价值的文章主要介绍了11.Netty源码之线程模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


highlight: arduino-light

原生NIO存在的问题

NIO 的类库和 API 繁杂,使用麻烦:需要熟练掌握 Selector、ServerSocketChannel、SocketChannel、ByteBuffer 等。

需要具备其他的额外技能:要熟悉 Java 多线程编程,因为 NIO 编程涉及到 Reactor 模式,你必须对多线程和网络编程非常熟悉,才能编写出高质量的 NIO 程序。

开发工作量和难度都非常大:例如客户端面临断连重连、网络闪断、半包读写、失败缓存、网络拥塞和异常流的处理等等。

JDK NIO 的 Bug:例如臭名昭著的 Epoll Bug,它会导致 Selector 空轮询,最终导致 CPU 100%。直到 JDK 1.7 版本该问题仍旧存在,没有被根本解决。

Netty官网说明

Netty 是由 JBOSS 提供的一个 Java 开源框架。

Netty 提供异步的、基于事件驱动的网络应用程序框架,用以快速开发高性能、高可靠性的网络 IO 程序。

Netty 可以帮助你快速、简单的开发出一个网络应用,相当于简化和流程化了 NIO 的开发过程。

Netty 是目前最流行的 NIO 框架,Netty 在互联网领域、大数据分布式计算领域、游戏行业、通信行业等获得了广泛的应用。

知名的 Elasticsearch 、Dubbo、RocketMQ 框架内部都采用了 Netty。

Netty的优点

Netty 对 JDK 自带的 NIO 的 API 进行了封装,解决了上述问题。

设计优雅:适用于各种传输类型的统一 API 阻塞和非阻塞 Socket;基于灵活且可扩展的事件模型,可以清晰地分离关注点;高度可定制的线程模型 - 单线程,一个或多个线程池.

使用方便:详细记录的 Javadoc,用户指南和示例;没有其他依赖项,JDK 5(Netty 3.x)或 6(Netty 4.x)就足够了。 高性能、吞吐量更高:延迟更低;减少资源消耗;最小化不必要的内存复制。

安全:完整的 SSL/TLS 和 StartTLS 支持。

社区活跃、不断更新:社区活跃,版本迭代周期短,发现的 Bug 可以被及时修复,同时,更多的新功能会被加入

Netty版本说明

netty版本分为 netty3.x 和 netty4.x、netty5.x 因为Netty5出现重大bug,已经被官网废弃了,目前推荐使用的是Netty4.x的稳定版本

目前在官网可下载的版本 netty3.x netty4.0.x 和 netty4.1.x 。当前专栏主要用的是Netty4.1.x 版本。

netty 下载地址: https://bintray.com/netty/downloads/netty/

线程模型

不同的线程模式,对程序的性能有很大影响,为了搞清Netty 线程模式,我们来系统的讲解下 各个线程模式, 最后看看Netty 线程模型有什么优越性。

目前存在的线程模型有:传统阻塞 I/O 服务模型 、Reactor 模式 根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现:

单 Reactor 单线程

单 Reactor 多线程

主从 Reactor 多线程

Netty线程模式:Netty 主要基于主从 Reactor 多线程模型做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor。

传统阻塞 I/O 服务模型

工作原理

黄色的框表示对象,蓝色的框表示线程,白色的框表示方法(API)

11.Netty源码之线程模型

模型特点

采用阻塞IO模式获取输入的数据 每个连接都需要一个独立的线程完成数据的输入,业务处理,数据返回

问题分析

并发数大,需要创建大量线程

1.当并发数很大,就会创建大量的线程,占用很大系统资源。

线程阻塞资源浪费。

2.连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在read 操作,造成线程资源浪费。

Reactor 模式

针对传统阻塞 I/O 服务模型的 2 个缺点。

基于 I/O 复用模型:多个连接共用一个阻塞对象。

应用程序只需要在一个阻塞对象等待,无需阻塞等待所有连接。

当某个连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理

Reactor 对应的叫法: 1. 反应器模式 2. 分发者模式(Dispatcher) 3. 通知者模式(notifier)

基于线程池复用线程资源:不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务。

I/O 复用结合线程池,就是 Reactor 模式基本设计思想,如图:

黄色的框表示对象,蓝色的框表示线程,白色的框表示方法(API)

11.Netty源码之线程模型

说明: Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式(基于事件驱动) 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此Reactor模式也叫 Dispatcher模式。

Reactor 模式使用IO复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键。

Reactor模式优点

响应快,不必为单个同步时间所阻塞,虽然 Reactor 本身依然是同步的。

可以最大程度的避免复杂的多线程及同步问题,并且避免了多线程/进程的切换开销。

扩展性好,可以方便的通过增加 Reactor 实例个数来充分利用 CPU 资源。

复用性好,Reactor 模型本身与具体事件处理逻辑无关,具有很高的复用性。

Reactor模式核心

Reactor:Reactor 在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对 IO 事件做出反应。 它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人。

Handlers:处理程序执行 I/O 事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际官员。Reactor 通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作。

根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现

单 Reactor 单线程

单 Reactor 多线程

主从 Reactor 多线程

单 Reactor 单线程

11.Netty源码之线程模型

方案说明

EventLoopGroup只包含一个EventLoop即只有1个线程,Boss 和 Worker 使用同一个EventLoopGroup。

Select 是前面 I/O 复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求 Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发。

如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理。

如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应,Handler 会完成 Read→业务处理→Send 的完整业务流程。

结合实例:服务器端用一个线程通过多路复用搞定所有的 IO 操作(包括连接,读、写等),编码简单,清晰明了,但是如果客户端连接数量较多,将无法支撑,前面的 NIO 群聊案例就属于这种模型。

方案优缺点

优点:模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成

缺点:性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈

缺点:可靠性问题,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障

使用场景:客户端的数量有限,业务处理非常快速,比如 Redis在业务处理的时间复杂度 O(1) 的情况。

单Reactor多线程

11.Netty源码之线程模型

方案说明

EventLoopGroup 包含多个 EventLoop,Boss 和 Worker 使用同一个EventLoopGroup。

Reactor 对象通过select 监控客户端请求事件, 收到事件后,通过dispatch进行分发。

如果建立连接请求, 则由Acceptor 通过accept 处理连接请求, 然后创建一个Handler对象处理完成连接后的各种事件。

如果不是连接请求,则由reactor分发调用连接对应的handler 来处理handler 只负责响应事件,不做具体的业务处理, 通过read 读取数据后,会分发给后面的worker线程池的某个线程处理业务。

worker 线程池会分配独立线程完成真正的业务,并将结果返回给handler,handler收到响应后,通过send 将结果返回给client。

方案优缺点

优点:可以充分的利用多核cpu 的处理能力

缺点:多线程数据共享和访问比较复杂, reactor 处理所有的事件的监听和响应,在单线程运行, 在高并发场景容易出现性能瓶颈.

主从 Reactor 多线程

EventLoopGroup 包含多个 EventLoop,Boss 是主Reactor,Worker 是从Reactor。

它们分别使用不同的 EventLoopGroup。

主 Reactor 负责新的网络连接 Channel 创建,然后把 Channel 注册到从Reactor。

针对单 Reactor多线程模型中,Reactor 在单线程中运行,高并发场景下容易成为性能瓶颈,可以让Reactor在多线程中运行。

11.Netty源码之线程模型

11.Netty源码之线程模型

方案说明

Reactor主线程MainReactor对象通过select 监听连接事件, 收到事件后,通过Acceptor 处理连接事件,当 Acceptor处理连接事件后,MainReactor 将连接成功的channel分配给subReactor 。

subreactor将连接加入到连接队列进行监听,并创建handler进行各种事件处理,当有新事件发生时,subreactor 就会调用对应的handler处理。

handler通过read读取数据,分发给后面的worker线程处理,worker线程池分配独立的worker线程进行业务处理,并返回结果。

handler 收到响应的结果后,再通过send 将结果返回给client。

Reactor 主线程可以对应多个Reactor 子线程, 即MainRecator 可以关联多个SubReactor。

方案优缺点

优点:父线程与子线程的数据交互简单职责明确,父线程只需要接收新连接,子线程完成后续的业务处理。

优点:父线程与子线程的数据交互简单,Reactor 主线程只需要把新连接传给子线程,子线程无需返回数据。

缺点:编程复杂度较高

结合实例:这种模型在许多项目中广泛使用,包括 Nginx 主从 Reactor多进程模型,Memcached 主从多线程,Netty 主从多线程模型的支持。

生活案例理解3种模式

单 Reactor 单线程,前台接待员和服务员是同一个人,全程为顾客服务。

单 Reactor 多线程,1个前台接待员,多个服务员,接待员只负责接待。

主从 Reactor 多线程,多个前台接待员,多个服务生。

Netty模型:主从Reactor多线程

Netty 主要基于主从 Reactors 多线程模型(如图)做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor

11.Netty源码之线程模型

工作原理示意图-进阶版

Netty 主要基于主从 Reactors 多线程模型(如图)做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor

11.Netty源码之线程模型

工作原理示意图-详细版

11.Netty源码之线程模型

Netty线程模型方案说明

Netty抽象出两组线程池 BossGroup 专门负责接收客户端的连接, WorkerGroup 专门负责网络的读写 BossGroup 和 WorkerGroup 类型都是 NioEventLoopGroup。

NioEventLoopGroup表示1个线程组,1个NioEventLoopGroup可以含有多个NioEventLoop即对应多个线程。

NioEventLoop 表示一个不断循环的执行处理任务的线程, 每个NioEventLoop 都绑定了一个selector , 用于监听绑定在其上的socket的网络通讯。

NioEventLoop 内部采用串行化设计,从消息的读取->解码->处理->编码->发送,始终由 IO 线程 NioEventLoop 负责。

每个Boss NioEventLoop 循环执行的步骤有3步

---轮询accept 事件,处理accept 事件

---与client建立连接生成NioScocketChannel并将其注册到某个workerGroup的NioEventLoop上的selector

---处理任务队列的任务即 runAllTasks

每个WorkerGroup中NioEventLoop 循环执行的步骤

---轮询read, write 事件

---处理i/o事件, 即read , write 事件,在对应NioScocketChannel 处理

---处理任务队列的任务 , 即 runAllTasks

每个WorkerGroup中的NioEventLoop在处理业务时,会使用pipeline(管道), pipeline中封装了channel,通过pipeline可以获取到对应通道, 管道中维护了很多的处理器。

总结

NioEventLoopGroup 下包含多个 NioEventLoop

每个 NioEventLoop 中绑定1个Selector和1个taskQueue

每个 NioEventLoop 的 Selector 上可以注册监听多个 Channel

每个 NioChannel 只会绑定在唯一的 NioEventLoop上。

每个 NioChannel 都绑定有一个ChannelPipeline,该ChannelPipeline存储了所有这个channel的handler。文章来源地址https://www.toymoban.com/news/detail-603204.html

到了这里,关于11.Netty源码之线程模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 13.Netty源码之Netty中的类与API

    Bootstrap 意思是引导,一个 Netty 应用通常由一个 Bootstrap 开始,主要作用是配置整个 Netty 程序,串联各个组件,Netty 中ServerBootstrap 是服务端启动引导类。 java //泛型 AbstractBootstrapB extends AbstractBootstrapB, C, C extends Channel ​ ServerBootstrap extends AbstractBootstrapServerBootstrap, ServerChannel ​

    2024年02月15日
    浏览(52)
  • [Netty源码] Netty轻量级对象池实现分析 (十三)

    1.对象池技术介绍 对象池其实就是缓存一些对象从而避免大量创建同一个类型的对象, 类似线程池。对象池缓存了一些已经创建好的对象, 避免需要的时候创建。同时限制了实例的个数。 池化技术最终要的就是重复的使用池内已经创建的对象。 创建对象的开销大 会创建大量的

    2023年04月18日
    浏览(44)
  • 《Netty》从零开始学netty源码(五十四)之PoolThreadLocalCache

    前面讲到 PoolThreadCache ,它为线程提供内存缓存,当线程需要分配内存时可快速从其中获取,在Netty中用 PoolThreadLocalCache 来管理 PoolThreadCache ,它的数据结构如下: PoolThreadLocalCache 相当于java的 ThreadLocal ,我们知道 ThreadLocal 中维护的是 ThreadLocalMap ,使用hashcode来做下标,而N

    2024年02月03日
    浏览(32)
  • 《Netty》从零开始学netty源码(五十九)之ServerBootstrapAcceptor

    前面初始化channel的过程中向pipeline中添加了一个channelHandler,即 ServerBootstrapAcceptor ,它的作用主要是将worker组的channel进行注册,它的数据结构如下: 它的属性主要是通过 ServerBootstrap 启动类设置的,它的方法主要是 channelRead() 方法,其过程如下: 在第五十八篇中,当EventLo

    2024年02月05日
    浏览(56)
  • 《Netty》从零开始学netty源码(四十九)之PoolArena

    Netty中分配内存是委托给PoolArena来管理的,它主要有两个实现类: 默认情况下使用的DirectArena,它的数据结构如下: 从属性中我们看到PoolArena主要分配三种类型的内存,小于32KB的分配small类型的PoolSubpage,存储在smallSubpagePools,32KB~4MB的分配normal类型的PoolChunk,根据其利用率的

    2024年02月02日
    浏览(33)
  • 《Netty》从零开始学netty源码(四十六)之PooledByteBuf

    Netty中一大块内存块 PoolChunk 默认大小为4MB,为了尽可能充分利用内存会将它切成很多块 PooledByteBuf , PooledByteBuf 的类关系图如下: PooledUnsafeDirectByteBuf 与 PooledUnsafeHeapByteBuf 直接暴露对象的底层地址。 PooledByteBuf 的创建过程开销很大,高并发情况下进行网络I/O时会创建大量的

    2024年02月01日
    浏览(86)
  • netty源码阅读--服务启动

    netty是一个非常成熟的NIO框架,众多apache的顶级项目底层通信框架都是用的是netty,本系列博客主要是记录自己复习netty源码的过程,重在理解netty的关键如:如何启动,如何接受网络数据、netty的内存管理机制以及编解码器等,废话不多说,直接跟着netty源码中的MQTT的官方示例

    2023年04月22日
    浏览(34)
  • 4.netty源码分析

    1.pipeline调用handler的源码 //pipeline得到双向链表的头,next到尾部, 2.心跳源码 主要分析IdleStateHandler3个定时任务内部类 //考虑了网络传输慢导致出站慢的情况 //超时重新发送,然后关闭 ReadTimeoutHandler(继承IdleStateHandler 直接关闭连接)和WriteTimeoutHandler(继承ChannelOutboundHandlerAdapter 使用

    2024年02月14日
    浏览(30)
  • Netty源码解读

    1、定义了两组线程池BossGroup和WorkerGroup,BossGroup专门负责接收客户端的连接, WorkerGroup专门负责网络的读写 2、BossGroup和WorkerGroup类型都是NioEventLoopGroup,Group中维护了多个事件循环线程NioEventLoop,每个NioEventLoop维护了一个Selector和TaskQueue 3、每个Boss NioEventLoop线程内部循环执行的

    2023年04月23日
    浏览(31)
  • 《Netty》从零开始学netty源码(四十二)之PoolChunk.runsAvailMap

    PoolChunk 中的 runsAvailMap 属性用于存放可用的run的信息, PoolChunk 中每一次分配内存都会更新 runsAvailMap 中可用的run的起始信息及末尾信息,先看下它的数据结构: 我们看下它的构造函数是如何赋值的: PoolChunk 的默认大小为4MB,对应sizeClasses表格中的31,所以array的初始长度为

    2023年04月25日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包