Linux——TCP协议2

这篇具有很好参考价值的文章主要介绍了Linux——TCP协议2。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

 确认应答(ACK)机制

超时重传机制

 连接管理机制

 流量控制

滑动窗口 

快重传VS超时重传

拥塞控制

 延迟应答

捎带应答

 面向字节流

粘包问题

TCP异常情况

 基于TCP应用层协议

TCP/UDP对比

用UDP实现可靠传输

listen 的第二个参数


 

 确认应答(ACK)机制

 Linux——TCP协议2

TCP将每个字节的数据都进行了编号. 即为序列.TCP发出去的数据(报文)一般被称为数据段
 Linux——TCP协议2

        我们理解TCP的发送缓冲区,我们可以将TCP的发送缓冲区,看做成一个char类型的数组。拷贝到发送缓冲区的每一个数据都有自己对应的下标。未来数据发多少,从起始位置开始偏移,以最后一个数据的下标作为序号,如要发0-100的数据,我们就以100的下标为序号,给对方传输。

Linux——TCP协议2

        每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发。

超时重传机制

 Linux——TCP协议2

         主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
        如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;
        但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;
Linux——TCP协议2

         因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.
        那么, 如果超时的时间如何确定?

最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回".
但是这个时间的长短, 随着网络环境的不同, 是有差异的.
如果超时时间设的太长, 会影响整体的重传效率;
如果超时时间设的太短, 有可能会频繁发送重复的包;

超时时间不能太长也不能太短,而且超时时间不能固定,当网络好的时候,超时时间最好短一点,网络不好的时候,超时时间应该长一些。

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间

Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时
时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接

 连接管理机制

 在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接

 Linux——TCP协议2

 流量控制

 接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,
就会造成丢包, 继而引起丢包重传等等一系列连锁反应.因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);

接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端;
窗口大小字段越大,说明网络主机接收能力越强, 说明网络的吞吐量越高;
接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
发送端接受到这个窗口之后, 就会减慢自己的发送速度;
如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端

由于TCP是全双工的,因此可以对双方都进行流量控制

Linux——TCP协议2         图中的窗口探测其实就是一个TCP报头。

        在进行流量控制的时候,第一次发报文时如何得知对方的接收能力?

        我们所要的是对方的接收缓冲区大小,我们可以通过交换报文获取对方的缓冲区大小,在三次握手的时候我们可以进行交换报文,在三次握手的前俩次是不能携带数据的,因为三次握手没有完成,但是可以交换双方的缓冲区的大小,三次握手就是在交换双方的报文(数据段),因为TCP报头有窗口大小,只不过该数据段没“有效载荷”。

        16位数字最大表示65535, 那么TCP窗口最大就是65535字节。
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位。

滑动窗口 

         对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段.
这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候。

Linux——TCP协议2

        既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了).一次向主机B发送大量数据,至于发送多少这个要看主机B的接收能力。
Linux——TCP协议2

允许向对方发送数据但是暂时不需要确认就可以立马发送下一个数据。

Linux——TCP协议2

滑动窗口在自己的发送缓冲区中,属于发送缓冲区中的一部分。

        窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口大小就是4000个字节(四个段).
        发送前四个段的时候, 不需要等待任何ACK, 直接发送;
         收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
        操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉(如上图已经发送&&收到应答区域,收到应答后下次从银月城拷贝数据就可以把收到应答的区域覆盖掉);
        窗口越大, 则网络的吞吐率就越高;

滑动窗口的本质:发送发,可以一次性向对方推送数据的上限。

滑动窗口本身也必须有上限,这个上限由对方的接收能力决定。

滑动窗口:1.既想给对方推送更多数据 2.又想要保证对方来得及接收。

Linux——TCP协议2

Linux——TCP协议2

滑动窗口本质就是指针或者下标,起始win_start,win_end;

        1.滑动窗口必须向右移动吗?

        不一定,若对方接收能力减少,窗口的右侧可以不动,左侧向右移动。

        2.滑动窗口可以为0吗?

        可以,对方缓冲区满了就可以为0.

        更新方式:

                        win_start=收到的应答报文中的确认序号,wn_end=win_start+min(拥塞窗口,对方接收能力的较小值)。

         如果没有收到开始的报文的应答,而是收到了中间的应答,这种情况是存在的,如发送2000,3000,4000,收到了3001,4001。之所以正确,是因为序号3001含义是3001之前的序号对方已全部收到。

        但如果我们发送的是2000,3000,4000,而应答没丢,丢的是2000,3000这个报文,主机B给A的应答只能是ACK 2001.

        超时重传,背后的含义:就是没有收到应答的时候,数据必须被暂时保存起来(保存在滑动窗口内)。

        滑动窗口如果一直向右滑动,会不会出现越界问题?不会。其实TCP的发送缓冲区是环状的。

只不过上面的线性结构是为了方便理解,所以无论怎么滑,都滑不出去。

Linux——TCP协议2

 滑动窗口解决的是效率问题,流量控制解决的是效率问题。

那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.
情况一: 数据包已经抵达, ACK被丢了
 Linux——TCP协议2

这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认;

情况二: 数据包就直接丢了.

 Linux——TCP协议2

        当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 "我想要的是 1001"一样;
        如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
        这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;

         如果收到了3个一样的ACK,就会立马补发。
         这种机制被称为 "高速重发控制"(也叫 "快重传")

快重传VS超时重传

         有了快重传,为什么还要有超时重传呢?

        因为快重传是有条件的,必须收到3个以上同样的ACK序号,如果不够3个只能超时重传,他们俩个不是对立的,而是协作的。快重传条件不满足,就超时重传,

拥塞控制

Linux——TCP协议2

         除了关注俩台机器之外,我们还要关注网络状态。

        如果数据出现少量丢包,数据进行重传就行。

        如果大量丢包,有可能是网络出问题了(网络拥塞了)。网络拥塞之后,绝对不能重传。因为无论怎么重传数据都过不去,而且是大量丢包,重传一定是大量重传,重传只会加重拥塞。由于用户过多,都要经过网络,大家都重传,网络拥塞只会加重。

        虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的。
        TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据。

Linux——TCP协议2

         此处引入一个概念程为拥塞窗口,单台主机一次向网络中发送大量数据时,可能会引发网络拥塞的上限值。

        滑动窗口的大小=min(拥塞窗口大小,对方窗口大小【接收能力】);
        发送开始的时候, 定义拥塞窗口大小为1;
        每次收到一个ACK应答, 拥塞窗口加1;
        每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;

        像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快.

         为何拥塞之后前期是指数增长?

        指数增长,前期慢,后期非常快。一旦拥塞,前期要让网络有一个缓一缓的机会,前期发送数据要少和慢,后期,网络恢复了之后,要尽快恢复通信,如果太慢,可能会影响通信效率。一方面能解决网络拥塞问题,又能尽快恢复双方通信的效率。

         为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
        此处引入一个叫做慢启动的阈值。
        当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长。

 Linux——TCP协议2

        当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
        在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1;
        少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
        当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
        拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案。 

 延迟应答

 Linux——TCP协议2

        如何保证给对方一个更大的接收能力呢?让对方应用层将接收缓冲区的数据取走,给接收缓冲区留下更大的剩余空间。

         如果接收数据的主机立刻返回ACK应答(可能没有给上层读取数据的时间), 这时候返回的窗口可能比较小。

        延迟应答,收到对方的数据后,先不进行ACK应答,而是等一等,在等的过程中上层可能会把接收缓冲区的数据拿走,进而可以通知发送方,让发送方发更多的数据。

假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;

        一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率

         那么所有的包都可以延迟应答么? 肯定也不是;
        数量限制: 每隔N个包就应答一次;
        时间限制: 超过最大延迟时间就应答一次;

具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;

Linux——TCP协议2

捎带应答

         在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收" 的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine, thank you";
        那么这个时候ACK就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户端

Linux——TCP协议2

 面向字节流

        创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区和一个接收缓冲区;

         调用write时, 数据会先写入发送缓冲区中;
        如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
        如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
        接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
        然后应用程序可以调用read从接收缓冲区拿数据;
        另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工

        当从用户层把数据拷贝到发送缓冲区,我们如果拷贝了10次,但用户发现网络拥塞或对方来不及接收,TCP会自动控制发送速率,在应用层只负责把数据拷贝到发送缓冲区,具体怎么发,发多少,应用层完全不用担心。

         而对于接收方,如果接收缓冲区里有1000个字节,接收方的应用层完全不关心,这1000个字节是发了几次过来的,这种发送和接收完全不关心数据格式和数据大小,只要给你发你就收,应用层需要什么格式的数据由应用层自己决定,这种通信流程叫面向字节流。

        UDP就像收快递一样,收一个,就知道对方发了一个。

        TCP报头中没有“报文长度”的字段。

        TCP根本不关心发的是什么,只负责把数据发过去,不对报文做任何解释,如之前写的网络计算器,\r\nlength x y \r\n,这种格式是我们在应用层定制的,TCP根本不关心格式,只负责把数据发过去。

粘包问题

         首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包.
        在TCP的协议头中, 没有如同UDP一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段.
        站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
        站在应用层的角度, 看到的只是一串连续的字节数据.
        那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包。

        那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.

        明确边界的问题由应用层自己完成。

        对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;

        用特殊字符做分隔符。
        对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
        对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);

         对于UDP协议来说, 是否也存在 "粘包问题" 呢?

        不存在,UDP有标报头和16为UDP长度。
        对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
        站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况

TCP异常情况

         进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN.,之后进行正常的四次挥手,和正常关闭没有什么区别。
        机器重启: 和进程终止的情况相同.
        机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.
        另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接

 基于TCP应用层协议

 TTP,HTTPS,SSH,Telnet,FTP,SMTP
当然, 也包括你自己写TCP程序时自定义的应用层协议。

TCP/UDP对比

         我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进行比较
        TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
        UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;
        归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定

用UDP实现可靠传输

         参考TCP的可靠性机制, 在应用层实现类似的逻辑
        引入序列号, 保证数据顺序;

        引入确认应答, 确保对端收到了数据;
        引入超时重传, 如果隔一段时间没有应答, 就重发数据;
        ......

listen 的第二个参数

         accept是用来获取链接的,TCP建立连接要三次握手,而accept要不要参与三次握手?

        不需要参与三次握手,因为三次握手由操作系统内部自动完成,accept需要从底层直接获取已经建立好的连接,如果三次握手没完成,accept只能阻塞等待。

        先建立好连接,再accept,如果我们不调用accept,能建立连接成功吗?能。

        如果上层来不及调用accept,并且对端还来了大量连接,难道所有的连接都应该先建立好吗?

         不能,如果建立大量连接,服务器可能会挂掉,服务器本身要维护一个连接队列,该连接队列必须要有,而且不能太长,该连接队列的长度和listen的第二个参数有关。

我们把listen第二个参数设为1

Linux——TCP协议2

先写一个死循环

Linux——TCP协议2

我们发现程序里没有accept,但是连接已经建立好了。

Linux——TCP协议2

我们再用增加一个客户端来连接服务器,此时我们可以看到有俩个连接

Linux——TCP协议2

 再加一个客户端

Linux——TCP协议2

我们发现新添加的客户端连接状态不一样

Linux——TCP协议2

 我们什么都没做,过了一会连接被自动释放掉,这是因为三次握手没完成被释放了。

Linux——TCP协议2

 listen的第二个参数意义是:底层全连接队列的长度=listen第二个参数+1.

         服务器端出现了 SYN_RECV 状态, 而不是 ESTABLISHED 状态,这是因为, Linux内核协议栈为一个tcp连接管理使用两个队列:
        1. 半链接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求)
        2. 全连接队列(accpetd队列)(用来保存处于established状态,但是应用层没有调用accept取走的请求)
        而全连接队列的长度会受到 listen 第二个参数的影响.
        全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态了.
        这个队列的长度通过上述实验可知, 是 listen 的第二个参数 + 1.

        

         文章来源地址https://www.toymoban.com/news/detail-470638.html

         

         

到了这里,关于Linux——TCP协议2的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【网络原理】TCP协议如何实现可靠传输(确认应答机制)

    🥊作者:一只爱打拳的程序猿,Java领域新星创作者,CSDN、阿里云社区优质创作者。 🤼专栏收录于:计算机网络原理 本篇主要讲解:TCP协议段格式,TCP的序列号,SYN、ACK标志位,确认应答机制。 目录 1、TCP协议段格式 1.1 TCP格式段 1.2 TCP协议段格式 2、确认应答机制 2.1 后发

    2024年02月09日
    浏览(49)
  • 网路原理-传输层UDP,TCP/IP(确认应答,超时重传,连接管理,三次握手,四次挥手,状态转换,流量控制,滑动窗口,拥塞控制,延时应答,捎带应答,异常情况,面向字节流)-网络层(IP协议,地址管理)

    本节重点 • 理解传输层的作⽤,深⼊理解TCP的各项特性和机制 • 对整个TCP/IP协议有系统的理解 • 对TCP/IP协议体系下的其他重要协议和技术有⼀定的了解 我们之前编写完了基本的 java socket ,要知道,我们之前所写的所有代码都在应⽤层,都是为了 完成某项业务,如翻译等。

    2024年04月15日
    浏览(58)
  • 【计算机网络】 确认应答机制与超时重传

    当我们客户端发送了一个数据,seq是1 100,那么服务端在收到时就会回一个ack=101的ACK包,代表101之前的包我都收到了,下面请你从101继续发送。然后客户端就会发送101 200,服务端收到后再回一个ack=201,在书写过程中,我们一定要先把标志位置1,然后再发送数据包,否则包是

    2024年02月09日
    浏览(34)
  • TCP/IP(十二)TCP的确认、超时、重传机制

    一    TCP的 确认应答 机制 ①  带 重传 的肯定确认 ②  细节   二    TCP的 重传 机制 ①  RTT 和 RTO ②    TCP的 重传 机制 ③  超时 重传 ④  快速 重传 ⑤  SACK  重点 ⑥  Duplicate SACK D-SACK

    2024年02月07日
    浏览(41)
  • TCP/IP协议栈的心跳、丢包重传、连接超时机制实例详解

    大家好,本文结合具体的问题实例,详细讲解一下TCP/IP协议栈的心跳机制、丢包重传机制等内容,给大家提供一个借鉴和参考。 1、问题概述 虽然软件底层模块在网络恢复后能自动重连上服务器,但会议因为网络问题已经退出,需要重新加入会议。 因为客户特殊的网络运行环

    2024年02月07日
    浏览(49)
  • TCP机制-延迟应答,捎带应答

            在看本篇博客前推荐先看TCP中窗口和滑动窗口的含义以及流量控制         延迟应答和捎带应答都是TCP用于提高网络传输效率的机制         当发送端发送数据给接收端了以后,按道理接收端的内核会立即返回ACK(应答报文)给发送端,而且ACK(应答报文)中不

    2024年02月11日
    浏览(32)
  • 【TCP】重传与超时机制

    在网络通信的世界里,传输控制协议(TCP)扮演着一个至关重要的角色。它确保了数据的可靠传输,就像邮差确保每一封信都能准确无误地送达收件人手中一样。但是,网络环境充满了不确定性,数据包可能会因为各种原因丢失或延迟。为了应对这种情况,TCP实现了重传和超

    2024年04月13日
    浏览(36)
  • TCP重传与超时机制:解锁网络性能之秘

    TCP(传输控制协议)是一种面向连接、可靠的传输层协议。为了保证数据的可靠传输,TCP采用了数据包重传的策略来应对在网络中传输过程中可能出现的丢包、错包、乱序等问题。下面我们详细介绍TCP重传的原理与机制。 (1)确认机制(Acknowledgement Mechanism) TCP通信中,接收

    2024年02月06日
    浏览(59)
  • 5.8.6 TCP可靠传输(二)超时重传机制

    5.8.6 TCP可靠传输(二)超时重传机制 超时重传机制是TCP协议保证数据可靠性另外一个非常重要的机制,它的原理是 当发出一个数据之后就开启一个定时器,如果在规定的时间之内没有得到发送数据报的ACK的应答就应当从缓存中把数据取出并重新发送出去,一直到数据发送成

    2024年02月13日
    浏览(40)
  • TCP 协议(四)重传与超时

    TCP 中有四种计时器(Timer),分别为: 重传计时器:Retransmission Timer 持久计时器:Persistent Timer 保活计时器:Keeplive Timer 等待计时器:Timer_Wait Timer TCP 是保证数据可靠传输的。怎么保证呢?带确认的重传机制。在滑动窗口协议中,接受窗口会在连续收到的包序列的最后一个包

    2024年02月15日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包