【高性能网络协议栈】openonload 篇

这篇具有很好参考价值的文章主要介绍了【高性能网络协议栈】openonload 篇。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        Onload 是 Solarflare 公司开发的加速的网络中间件。它在用户空间实现了 TCP/IP 网络协议栈,能在用户空间直接访问(安全的)网络适配器硬件访问权限硬件。网络数据可以直接在网络和应用之间收发,而不必通过操作系统,这种技术称为“内核旁路”。

        内核旁路(kernel bypass)可避免系统调用、上下文切换以及中断打断,从而提高应用程序代码执行效率。这也直接减少了主机处理开销,通常能够节省一半左右,为应用程序处理留出更多的CPU时间。这对于网络密集型应用程序效果最为明显,例如:

市场行情和交易应用程序

  • 计算流体动力学(CFD)
  • HPC(高性能计算)
  • HPMPI(高性能消息传递接口),Onload兼容使用MPICH1和2、HPMPI、OpenMPI和SCALI
  • 其他并行计算的物理模型
  • 高带宽视频流
  • Web 缓存、负载平衡和 Memcached 应用程序
  • 内容加速网络(CDN)和 HTTP 服务器
  • 其他系统热点,如分布式锁管理器或强制序列化点

        Onload 库在运行时使用标准 BSD 套接字 API,这意味着不需要对应用程序任何修改即可进行加速。Onload 是第一个也是唯一一个提供完整内核旁路 的POSIX套接字的产品。

和传统网络对比

        当使用传统网络时,应用程序调用操作系统内核向网络发送数据和从网络接收数据。从应用程序到内核的切换代价高,并且可能成为重要的性能瓶颈。当使用 Onload 加速的应用程序需要发送或接收数据时,它不需要访问操作系统,而是可以直接访问网络适配器上的分区。

【高性能网络协议栈】openonload 篇,网络协议,网络加速,openonload,onload,solarflare

        传统模型的一个重要特征是,应用程序不能直接访问网络硬件,因此不能损害系统的完整性。Onload 能够通过在硬件级别将 NIC 划分为多个受保护的“虚拟NIC”(VNIC)来保持系统完整性。应用程序可以被授予对 VNIC 的直接访问权限,而无需访问系统的其余部分(包括不属于该应用程序的其他 VNIC 或内存)。因此,在 Solarflare NIC 上使用 Onload 可以在不影响安全性或系统完整性的情况下实现最佳性能。 

        总之,Onload 可以显著降低网络处理开销。

onload 如何提升性能

        Onload 可以通过降低 CPU 开销,提升延迟、带宽和程序扩展性性能,显著降低与网络相关的开销。

        开销

        从用户空间应用程序转换到内核和从内核转换到内核是一项相对昂贵的操作,这通常需要执行数百或数千条指令。对于传统的网络,每次应用程序发送和接收数据时都需要这样的转换。使用Onload,TCP/IP 处理可以完全在用户进程内完成,从而消除了昂贵的应用程序/内核转换,即系统调用。此外,Onload TCP/IP 协议栈经过高度优化,进一步节省了开销。

        Onload 节省的开销意味着应用程序可以使用更多的 CPU 计算能力来完成有用的工作。

        延迟

        按照惯例,当服务器应用程序准备好处理事务时,它会调用操作系统内核来执行“接收”操作,在该操作中,内核会将调用线程“休眠”,直到来自网络的请求到达。当这样的请求到达时,网络硬件“中断”内核,内核接收请求并“唤醒”应用程序。

        所有这些开销都需要占用CPU周期以及增加缓存和页表缓冲(TLB)的空间。使用 Onload,应用程序可以保持在用户级别,等待请求到达网络适配器并直接处理它们。消除内核到用户的转换、中断以及随后的用户到内核的转换可以显著降低延迟。总之,降低开销意味着降低延迟。

        带宽

        由于 Onload 的开销较小,它每秒可以处理更多字节的网络流量。除了为万兆网络设计的经过特殊优化的缓冲和算法外,应用程序使用 onload 可以显著提升网络带宽。

        可伸缩性

        现代多核心系统能够同时运行许多应用程序。然而,当多个内核在单个资源上竞争时,这些优势可能会很快丧失,例如内核网络堆栈或设备驱动程序中的锁。这些问题在具有跨多个 CPU 内核的多个缓存和非统一内存体系结构的现代系统上更加复杂。

        Onload 的使用使得网络适配器被分成不同的分区,并且每个分区都由 TCP/IP 协议栈的独立副本访问,从而实现增加 CPU 数量确实可以使吞吐量有相应的增加。

【高性能网络协议栈】openonload 篇,网络协议,网络加速,openonload,onload,solarflare

onload 透明性 

        Onload 在不需要重写或重新编译用户应用程序的情况下显著提高了性能,同时保留了与标准TCP 和 UDP 协议的完全互操作性。

        在常规内核 TCP/IP 体系结构中,应用程序动态链接到 libc库。该操作系统库通过一组“包装器”函数为标准BSD套接字API提供支持,这些函数的实际处理发生在内核级别。Onload 也支持标准的 BSD 套接字 API。然而,与内核 TCP/IP 相比,Onload 将协议处理从内核空间转移到用户级Onload 库本身。

        当网络应用程序调用标准的 socket API 函数调用时,例如 socket()、read()和 write()等,这些调用会被 Linux 上使用 LD_PRELOAD 机制的 Onload 库截获。在每次函数调用中,Onload 都会检查文件描述符,使用 Solarflare 接口的套接字由 Onload 堆栈处理,而那些不使用 Solarflare 接口的套接字则透明地传递到内核堆栈。

onload 堆栈

        Onload 堆栈是 TCP/IP 堆栈的一个实例。堆栈包括传输和接收缓冲区、连接以及相关的端口号和堆栈选项。每个堆栈都关联了一个或多个虚拟NIC(通常为每个使用的物理端口创建一个 NIC)。

        在正常使用中,每个加速进程都有自己的 Onload 堆栈,由该进程创建的所有连接共享。多个进程也可以共享一个 Onload 堆栈实例,单个应用程序也可以具有多个 Onload 栈。

虚拟网络接口 VNIC

        Solarflare 网络适配器每个网络端口上支持 1024 个传输队列、1024 个接收队列、1024 个事件队列和 1024 个定时器资源。一个 VNIC(虚拟网络接口)是由一组这些资源组成,允许 VNIC 客户端,即Onload堆栈独立、安全的发送和接收网络数据。通过网络适配器上的 IP/MAC 过滤表和接收侧调整机制(RSS)将接收到的数据包传输到指定的 VNIC。Onload 堆栈为每个 Solarflare网络端口分配一个 VNIC,因此它在用户模式下有一个专用的发送和接收通道。

        重置 Solarflare 网络适配器驱动程序后,将重新安装所有虚拟接口资源,包括 Onload 堆栈和套接字。重置操作对应用程序是透明的,但在重置过程中流量会丢失。

功能概述

        当建立其第一个套接字时,应用程序被分配一个 Onload 堆栈,该堆栈分配所需的 VNIC。

        当数据包到达时,适配器中的 IP 过滤会识别套接字,并将数据写入相应的 Onload 堆栈中的下一个可用接收缓冲区。然后,适配器将一个事件写入由 Onload 管理的“事件队列”。如果应用程序定期进行套接字调用,则 Onload 会定期轮询此事件队列,然后直接处理事件而不是通过中断来获取这些数据。

        用户级处理显著减少了内核/用户级上下文切换,并且只有在应用程序阻塞时才需要中断,因为当应用程序进行套接字调用时,Onload 一直在处理接收新的网络事件的事件队列。

混合网络适配器

        服务器可以配备 Solarflare 网络接口和非 Solarflare 的网络接口。当应用程序加速时,Onload读取 Linux 内核路由表(Onload 只考虑内核默认路由表),以确定需要哪个网络接口来进行连接。如果需要非 Solarflare 接口才能到达目的地,Onload 将把连接传递到内核 TCP/IP 堆栈。无需额外配置即可实现,因为 Onload 通过查找 IP 路由表自动实现。

最大网络接口数

        最多可以向 Onload 驱动程序注册 32 个网络接口。
        默认情况下,Onload 每个堆栈最多支持 8 个网络接口。此限制可以是通过更改 src/include/CI/internal/transport_config_opt.h 头文件 中的 CI_CFG_MAX_INTERFACES 更改,更改后需要重新编译并安装 Onload。

黑名单/白名单

        从 Onload 201502 开始,用户可以选择哪些 Solarflare 接口为 Onload 使用。
        intf_white_list Onload 模块选项是一个以空格分隔的 Solarflare 列表,记录 Onload 将用于网络 I/O 的网络适配器接口。

  • 白名单中标识的接口将始终由 Onload 加速
  • 未在白名单中识别的接口不会被 Onload 加速
  • 空白白名单意味着所有 Solarflare 接口都将加速

        intf_black_list Onload 模块选项是一个以空格分隔的Solarflare网络适配器接口列表,Onload不会将其用于网络 I/O。当一个接口同时出现在两个列表中时,黑名单优先。Onload 启动后对接口的重命名不会反映在访问列表中,对列表的更改只会影响在这些更改后创建的 Onload 堆栈,而不会影响当前正在运行的堆栈。可以在 /etc/modprobe.d 目录中用户创建的文件中指定 Onload 模块选项:文章来源地址https://www.toymoban.com/news/detail-742903.html

 options onload intf_white_list=eth4
 options onload intf_black_list="eth5 eth6

到了这里,关于【高性能网络协议栈】openonload 篇的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Linux高性能服务器编程|阅读笔记:第1章 - TCP/IP协议族

    Hello! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~   ଘ(੭ˊᵕˋ)੭ 昵称:海轰 标签:程序猿|C++选手|学生 简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研 学习经验:扎实基础 + 多做

    2024年02月01日
    浏览(58)
  • Redis 又双叒叕改开源协议了,微软提前推出高性能替代方案 Garnet

    3 月 20 号,Redis 商业公司 CEO Rowan Trollope 在公司官方博客上宣布了一项重大变革。Redis 核心软件将从 BSD 3-Clause 许可证过渡到双重许可证模式,这一变化将从 Redis v7.4 版本开始,贯穿到未来所有的 Redis 发布版本。新的许可证模式使用了 Redis Source Available License version 2 (RSALv2) 或

    2024年04月16日
    浏览(41)
  • Sui网络的稳定性和高性能

    Sui的最初的协议开发者设计了可扩展的网络,通过水平扩展的方式来保持可负担得起的gas费用。其他区块链与之相比,则使用稀缺性和交易成本来控制网络活动。 Sui主网上线前90天的数据指标证明了这一设计概念,在保持100%正常运行的同时,交易峰值高达每秒5414笔。 在此

    2024年02月13日
    浏览(55)
  • I/O多路复用+高性能网络模式

    前言: 本篇文章将介绍客户端-服务端之间从最简单的Socket模型到I/O多路复用的模式演变过程,并介绍Reactor和Proactor两种高性能网络模式 文章内容摘自:小林Coding I/O多路复用+高性能网络模式 服务端流程: 1.创建Socket套接字 2.使用bind函数绑定ip地址和端口 3.listen函数监听端口

    2024年02月10日
    浏览(45)
  • C语言网络编程:实现自己的高性能网络框架

    一般生产环境中最耗时的其实是业务逻辑处理。所以,是不是可以将处理业务逻辑的代码给拆出来丢到线程池中去执行。 比如像下面这样: ​我们事先创建好一堆worker线程,主线程accepter拿到一个连接上来的套接字,就从线程池中取出一个线程将这个套接字交给它。这样,我

    2024年02月10日
    浏览(47)
  • 【网络编程】高性能并发服务器源码剖析

      hello !大家好呀! 欢迎大家来到我的网络编程系列之洪水网络攻击,在这篇文章中, 你将会学习到在网络编程中如何搭建一个高性能的并发服务器,并且我会给出源码进行剖析,以及手绘UML图来帮助大家来理解,希望能让大家更能了解网络编程技术!!! 希望这篇文章能

    2024年04月15日
    浏览(56)
  • C++高性能服务器网络框架设计与实现

    这篇文章将从两个方面来介绍,一个是服务器中的基础的网络通信部件;另外一个是,如何利用这些基础通信部件整合成一个完整的高效的服务器框架。注意:本文以下内容中的客户端是相对概念,指的是连接到当前讨论的服务程序的终端,所以这里的客户端既可能是我们传

    2024年02月04日
    浏览(54)
  • 理解高性能网络技术对云计算的影响

    作者:禅与计算机程序设计艺术 云计算是一个新兴的服务形态,它通过将软件资源池化、软件定义网络以及基础设施即服务(IaaS)等多种形式的服务提供给消费者,将资源和服务的部署自动化,并按需付费的方式将服务运行起来。云计算服务的流行使得各种网络环境的用户都能

    2024年02月03日
    浏览(44)
  • 高性能网络设计秘笈:深入剖析Linux网络IO与epoll

    本文分享自华为云社区《高性能网络设计秘笈:深入剖析Linux网络IO与epoll》,作者: Lion Long 。 epoll是Linux内核中一种可扩展的IO事件处理机制,可替代select和poll的系统调用。处理百万级并发访问性能更佳。 (1) 文件描述符越多,性能越差。 单个进程中能够监视的文件描述

    2024年02月16日
    浏览(50)
  • Spring Boot与Netty:构建高性能的网络应用

    点击下载《Spring Boot与Netty:构建高性能的网络应用》 本文将详细探讨如何在Spring Boot应用中集成Netty,以构建高性能的网络应用。我们将首先了解Netty的原理和优势,然后介绍如何在Spring Boot项目中集成Netty,包括详细的使用流程和步骤,以及带有注释的代码示例。通过本文,

    2024年02月22日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包