大家好,我是晓星航。今天为大家带来的是 网络原理之TCP_IP 相关的讲解!😀
4.传输层重点协议
负责数据能够从发送端传输接收端。
4.1TCP协议
TCP,即Transmission Control Protocol,传输控制协议。人如其名,要对数据的传输进行一个详细的控制。
4.1.1TCP协议段格式
- 源/目的端口号:表示数据是从哪个进程来,到哪个进程去;
- 32位序号/32位确认号:后面详细讲;
- 4位TCP报头长度:表示该TCP头部有多少个32位bit(有多少个4字节);首部长度的单位是4字节而不是字节。如果首部长度是15,那么TCP头部最大长度是 15 * 4 = 60 (长度是可变的) 后面的6位为保留位,可以类比于保留字。
- 6位标志位:
- URG:紧急指针是否有效
- ACK:确认号是否有效
- PSH:提示接收端应用程序立刻从TCP缓冲区把数据读走
- RST:对方要求重新建立连接;我们把携带RST标识的称为复位报文段
- SYN:请求建立连接;我们把携带SYN标识的称为同步报文段
- FIN:通知对方,本端要关闭了,我们称携带FIN标识的为结束报文段
- 16位窗口大小:后面再说
- 16位校验和:发送端填充,CRC校验。接收端校验不通过,则认为数据有问题。此处的检验和不光 包含TCP首部,也包含TCP数据部分。
- 16位紧急指针:标识哪部分数据是紧急数据;
- 40字节头部选项(option):此处的选项相当于对这个 TCP 报文的一些属性进行解释说明的(可有可无)。
4.1.2TCP原理
TCP对数据传输提供的管控机制,主要体现在两个方面:安全和效率。
这些机制和多线程的设计原则类似:保证数据传输安全的前提下,尽可能的提高传输效率。
4.1.2.1确认应答机制 ACK(安全机制)
A 给 B 发了个信息,B 收到之后就会返回一个 应答报文(ACK) — answer,此时 A 收到应答之后,就知道了刚才发的数据已经顺利到达 B 了。
[唐僧讲经例子]
TCP将每个字节的数据都进行了编号,按照字节来编号的。即为序列号。
每一个ACK都带有对应的确认序列号,意思是告诉发送者,我已经收到了哪些数据;下一次你从哪里开始发。(通过引入 序号
和 确认序号
来区分当前应答报文是针对那个数据进行的了)
例如,主机A发送的当前数据序号是400,数据长度是100,则接收端收到后会返回一个确认号是501的确认号给主机A。
确认序号的取值,是收到的数据的最后一个字节的序号 + 1.
表示的含义:
例如如果此时确认序号是 1001
- < 1001 的数据都已经确认收到了!
- A 接下来应该从 1001 这个序号开始继续发送。 ( B向A索要 1001 的数据 )
如果我们要找1 - 1000 的报头,此时1 - 1000 都是属于一个 TCP 数据包的,所以他的报头只需要填 1 就行了。
同理,1001 - 2000 的报头就是 1001。
2001 - 3000 的包头就是 2001。
TCP进行可靠性传输,最主要就是靠这个确认应答机制。
4.1.2.2超时重传机制(安全机制)
丢包可能是数据丢包
- 主机 A发送数据给 B之后,可能因为网络拥堵等原因,数据无法到达主机 B;
- 如果主机A在一个特定时间间隔内没有收到 B发来的确认应答,就会进行重发;
但是,主机A未收到B发来的确认应答,也可能是因为ACK丢失了;
因为我们数据丢包了,因此我们就会进行重新传输来应对这一丢包问题。
因此主机B会收到很多重复数据。那么TCP协议需要能够识别出那些包是重复的包,并且把重复的丢弃掉。
这时候我们可以利用前面提到的序列号,就可以很容易做到去重的效果。
那么,如果超时的时间如何确定?
- 最理想的情况下,找到一个最小的时间,保证 “确认应答一定能在这个时间内返回”。
- 但是这个时间的长短,随着网络环境的不同,是有差异的。
- 如果超时时间设的太长,会影响整体的重传效率;
- 如果超时时间设的太短,有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信,因此会动态计算这个最大超时时间。
- Linux中(BSD Unix和Windows也是如此),超时以500ms为一个单位进行控制,每次判定 超时重发的超时时间都是500ms的整数倍。
- 如果重发一次之后,仍然得不到应答,等待 2*500ms 后再进行重传。
- 如果仍然得不到应答,等待 4*500ms 进行重传。依次类推,以指数形式递增。
- 累计到一定的重传次数,TCP认为网络或者对端主机出现异常,强制关闭连接。
4.1.2.3连接管理机制(安全机制)
在正常情况下,TCP要经过三次握手建立连接,四次挥手断开连接
三次握手:
SYN(synchronize):客户端主动给服务器发起的建立连接请求,称为"SYN",同步报文段。 这里的同步在我们图上理解就是创建连接的意思,只不过这里我们把他称作为同步。
ACK:应答报文。
上述粉框框住的地方是我们 TCP 的状态。
三次握手,建立连接阶段,主要认识两个状态:
- LISTEN 服务器状态。
表示服务器已经准备就绪,随时可以有客户端来建立连接了。相当于 手机开机,信号良好,随时可以有人来打电话了 - ESTABLISHED 客户端和服务器都有
连接建立完成,接下来就可以正常通信了。
相当于电话拨打过去,对方接通了。
蓝框里面描述了 TCP 和 socket api 之间的关系。此处的 socket api 是系统原生api(C 语言版本的),这个和 Java 版本的已经有一定差距了。
所谓的三次握手,本质上是"四次"交互。 — 通信双方,各自要向对方发起一个 “建立连接的请求”。同时,再各自向对方回应一个 ack ,共四次。但是中间两次交互,是可以合并成一次交互的。因此就构成了"三次握手"。
那么问题来了,为什么要把中间两次合并?不合并行不行?
答:必须合并!!!因为这里涉及到封装分用,封装分用两次比封装分用一次成本更高。
三次握手另外一个重要的作用:验证同行双方各自的发送能力和接受能力是否正常。
三次握手的意义:
- 让通信双方各自建立对对方的"认同"
- 验证通信双方各自的发送能力和接收能力是否 ok。
- 在握手的过程中,双方来协商一些重要的参数
如果未来我们去面试,面试官问我们什么是三次握手过程,请你描述一下、
此时我们最好自带一套纸笔去面试,再描述三次握手的时候边画图边讲解!!!
向上述这样画图即可,中间一次过程合并了一次交互!
四次挥手:
四次挥手,关闭连接阶段,主要认识两个状态:
- CLOSE_WAIT 出现在被动发起断开连接的一方
等待关闭。(等待调用 close 方法关闭 socket) - TIME_WAIT 出现在主动发起断开连接的一方
假设是客户端主动断开连接。当客户端进入 TIME_WSIT 状态时候,相当于四次挥手已经挥完。
此时这里的 TIME_WAIT 要保持当前的 TCP 连接状态不要立即就释放。
注意,在断开连接的过程中,中间两次,通常情况下不能合并。(特殊情况下可以)—两个数据发送的时机相同,才能合并。如果是不同时机,就合并不了。
三次握手中间两次可以合并是因为他俩是同一时机。具体来说,三次握手这三次交互过程,是纯内核中完成的。(应用程序感知不到,也干预不了)
服务器的系统内核收到 syn 之后,就会立即发送 ack 也会立即发送 syn 。
而四次握手里面,FIN 的发起,不是由内核控制的,而是应用程序,调用 socket 的 close 方法 (或者进程退出),才会触发 FIN。
而ACK 则是由内核控制的,是收到 FIN 之后,立即返回 ACK。
因此四次握手中,中间两次过程不可直接合并,因为他们之间会有一个时间差,他们不是同一时机发出的。
如果未来我们去面试,面试官问我们什么是四次挥手过程,请你描述一下、
此时我们最好自带一套纸笔去面试,再描述四次挥手的时候边画图边讲解!!!
这里的 四次挥手 和上面的 三次握手 ,同样是存在超时重传的。
如果是最后一个ACK丢包了,站在服务器的视角来看,服务器是不知道是因为 ACK 丢了,还是自己发的 FIN 丢了,所以他会统一视为 FIN 丢了,统一进行重传操作。
既然服务器可能要重传 FIN,客户端就需要能针对这个重传的 FIN 进行 ACK 响应。很明显,如果刚才彻底把连接释放了,这样的 ACK 就无法进行了。因此使用 TIME_WAIT 状态保留一定时间,就是为了能够处理最后一个 ACK 丢包的情况,能够在收到重传的 FIN 之后,进行 ACK 响应。
服务端状态转化:
- [CLOSED -> LISTEN] 服务器端调用 listen后进入LISTEN状态,等待客户端连接;
- [LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段),就将该连接放入内核等待队列 中,并向客户端发送SYN确认报文。
- [SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文,就进入ESTABLISHED状 态,可以进行读写数据了。
- [ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close),服务器会收到结束 报文段,服务器返回确认报文段并进入CLOSE_WAIT;
- [CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前 的数据);当服务器真正调用close关闭连接时,会向客户端发送 FIN,此时服务器进入 LAST_ACK状态,等待最后一个ACK到来(这个ACK是客户端确认收到了 FIN)
- [LAST_ACK -> CLOSED] 服务器收到了对 FIN的 ACK,彻底关闭连接。
客户端状态转化:
- [CLOSED -> SYN_SENT] 客户端调用 connect,发送同步报文段;
- [SYN_SENT -> ESTABLISHED] connect调用成功,则进入ESTABLISHED状态,开始读写数据;
- [ESTABLISHED -> FIN_WAIT_1] 客户端主动调用 close时,向服务器发送结束报文段,同时进 入 FIN_WAIT_1;
- [FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认,则进入 FIN_WAIT_2, 开始等待服务器的结束报文段;
- [FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段,进入TIME_WAIT,并发出 LAST_ACK;
- [TIME_WAIT -> CLOSED] 客户端要等待一个 2
MSL
(Max Segment Life,报文最大生存时间
)的时间,才会进入 CLOSED状态。(这里给两个 MSL 的原因是因为如果是 FIN 丢了,等 FIN 发出,然后接收再 ACK 正好是在两个报文最大生存时间以内 即 2MSL)MSL(maximum segment lifetime):中文可以译为 “报文最大生存时间”,他是任何报文在网络上存在的最长时间,超过这个时间报文将被丢弃。
下图是TCP状态转换的一个汇总:
- 较粗的虚线表示服务端的状态变化情况;
- 较粗的实线表示客户端的状态变化情况;
- CLOSED是一个假想的起始点,不是真实状态;
关于 “半关闭” ,男女朋友分手例子
关于CLOSING状态。
TIME_WAIT
想一想,为什么是TIME_WAIT的时间是2MSL?
- MSL是TCP报文的最大生存时间,因此TIME_WAIT持续存在2MSL的话
- 就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启,可能会收到来自上一个进程的迟到的数据,但是这种数据很可能是错误的);
- 同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失,那么服务器会再重 发一个FIN。这时虽然客户端的进程不在了,但是TCP连接还在,仍然可以重发 LAST_ACK);
CLOSE_WAIT
一般而言,对于服务器上出现大量的 CLOSE_WAIT 状态,原因就是服务器没有正确的关闭 socket,导 致四次挥手没有正确完成。这是一个 BUG。只需要加上对应的 close 即可解决问题。
4.1.2.4滑动窗口(效率机制)
刚才我们讨论了确认应答策略,对每一个发送的数据段,都要给一个ACK确认应答。收到ACK后再发送 下一个数据段。这样做有一个比较大的缺点,就是性能较差。尤其是数据往返的时间较长的时候。
既然这样一发一收的方式性能较低,那么我们一次发送多条数据,就可以大大的提高性能(其实是将多 个段的等待时间重叠在一起了)。
- 窗口大小:它指的是无需等待确认应答而可以继续发送数据的最大值。上图的窗口大小就是4000
个字节(四个段)。- 发送前四个段的时候,不需要等待任何ACK,直接发送;
- 收到第一个ACK后,滑动窗口向后移动,继续发送第五个段的数据;依次类推;(到一个ACK就继续发一个,让等待的ACK始终都哦是窗口大小的数量)
- 操作系统内核为了维护这个滑动窗口,需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答;只有确认应答过的数据,才能从缓冲区删掉;
- 窗口越大,则网络的吞吐率就越高;
那么如果出现了丢包,如何进行重传?这里分两种情况讨论。
情况一:数据包已经抵达,ACK被丢了。
这种情况下,部分ACK丢了并不要紧,因为可以通过后续的ACK进行确认;
情况二:数据包就直接丢了。
- 由于1001 - 2000丢包了,接下来2001 - 3000 到达主机 B 后,B 给 A 返回的 ACK 确认序号仍然是 1001。(此时和你发来的这个数据序号是啥,关系不大,他不会返回当前的这个 ACK,而是返回目前已有的哪个最小的 ACK 确认序号)
- 当某一段报文段丢失之后,发送端会一直收到 1001 这样的ACK,就像是在提醒发送端 “我想要的是 1001” 一样;
- 如果发送端主机连续三次收到了同样一个 “1001” 这样的应答,就会将对应的数据 1001 - 2000 重新发送;
- 这个时候接收端收到了 1001 之后,再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了,被放到了接收端操作系统内核的接收缓冲区中;
这种机制被称为 “高速重发控制”(也叫 “快重传”)。
4.1.2.5流量控制(安全机制)- 接收方
接收端处理数据的速度是有限的。如果发送端发的太快,导致接收端的缓冲区被打满,这个时候如果发送端继续发送,就会造成丢包,继而引起丢包重传等等一系列连锁反应。
因此TCP支持根据接收端的处理能力,来决定发送端的发送速度。这个机制就叫做流量控制(Flow Control);
- 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段,通过ACK端通知发送端;
- 窗口大小字段越大,说明网络的吞吐量越高;
- 接收端一旦发现自己的缓冲区快满了,就会将窗口大小设置成一个更小的值通知给发送端;
- 发送端接受到这个窗口之后,就会减慢自己的发送速度;
- 如果接收端缓冲区满了,就会将窗口置为 0;这时发送方不再发送数据,但是需要定期发送一个窗口探测数据段,使接收端把窗口大小告诉发送端。
接收端如何把窗口大小告诉发送端呢?回忆我们的TCP首部中,有一个16位窗口字段,就是存放了窗口 大小信息;
那么问题来了,16位数字最大表示65535,那么TCP窗口最大就是65535字节么?
实际上,TCP首部40字节选项中还包含了一个窗口扩大因子M,实际窗口大小是 窗口字段的值左移 M 位;
比如窗口大小已经是 16位 即64kb 它里面的扩展因子写了个 2,意思就是让
64KB << 2 = > 256KB
由于接收方缓冲区剩余空间是一直在动态变化的,所以每次返回 ack 带的窗口大小都在变化,发送方也是在动态调整。
4.1.2.6拥塞控制(安全机制)- 中间节点过程
虽然TCP有了滑动窗口这个大杀器,能够高效可靠的发送大量的数据。但是如果在刚开始阶段就发送大量的数据,仍然可能引发问题。
因为网络上有很多的计算机,可能当前的网络状态就已经比较拥堵。在不清楚当前网络状态下,贸然发 送大量的数据,是很有可能引起雪上加霜的。
TCP引入 慢启动 机制,先发少量的数据,探探路,摸清当前的网络拥堵状态,再决定按照多大的速度传 输数据;
- 此处引入一个概念程为拥塞窗口
- 发送开始的时候,定义拥塞窗口大小为1;
- 每次收到一个ACK应答,拥塞窗口加1;
- 每次发送数据包的时候,将拥塞窗口和接收端主机反馈的窗口大小做比较,取较小的值作为实际发送的窗口;
像上面这样的拥塞窗口增长速度,是指数级别的。“慢启动” 只是指初使时慢,但是增长速度非常快。
- 为了不增长的那么快,因此不能使拥塞窗口单纯的加倍。
- 此处引入一个叫做慢启动的阈值
- 当拥塞窗口超过这个阈值的时候,不再按照指数方式增长,而是按照线性方式增长
- 当TCP开始启动的时候,慢启动阈值等于窗口最大值;
- 在每次超时重发的时候,慢启动阈值会变成原来的一半,同时拥塞窗口置回1;
少量的丢包,我们仅仅是触发超时重传;大量的丢包,我们就认为网络拥塞;
当TCP通信开始后,网络吞吐量会逐渐上升;随着网络发生拥堵,吞吐量会立刻下降;
拥塞控制,归根结底是TCP协议想尽可能快的把数据传输给对方,但是又要避免给网络造成太大压力的 折中方案。
TCP拥塞控制这样的过程,就好像 **热恋的感觉 **
4.1.2.7延迟应答(效率机制)
如果接收数据的主机立刻返回ACK应答,这时候返回的窗口可能比较小。
- 假设接收端缓冲区为1M。一次收到了500K的数据;如果立刻应答,返回的窗口就是500K;
- 但实际上可能处理端处理的速度很快,10ms之内就把500K数据从缓冲区消费掉了;
- 在这种情况下,接收端处理还远没有达到自己的极限,即使窗口再放大一些,也能处理过来;
- 如果接收端稍微等一会再应答,比如等待200ms再应答,那么这个时候返回的窗口大小就是 1M;
一定要记得,窗口越大,网络吞吐量就越大,传输效率就越高。我们的目标是在保证网络不拥塞的情况 下尽量提高传输效率;
那么所有的包都可以延迟应答么?肯定也不是;
- 数量限制:每隔N个包就应答一次;
- 时间限制:超过最大延迟时间就应答一次;
具体的数量和超时时间,依操作系统不同也有差异;一般N取2,超时时间取200ms;
4.1.2.8捎带应答(效率机制)
在延迟应答的基础上,我们发现,很多情况下,客户端服务器在应用层也是 “一发一收” 的。意味着客户端给服务器说了 “How are you”,服务器也会给客户端回一个 “Fine, thank you”;
那么这个时候ACK就可以搭顺风车,和服务器回应的 “Fine,thank you” 一起回给客户端
本来是不同实际,在延时应答下,可能成为相同的时机,就合并了。
TCP 三次握手,本身就是相同时机。
三次握手是一定会合并的,此处有一定概率合并,这里和 四次挥手 的合并更像!
其他特性:面向字节流
其他特性:缓冲区
**其他特性:大小限制 **
创建一个TCP的socket,同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
- 调用 write时,数据会先写入发送缓冲区中;
- 如果发送的字节数太长,会被拆分成多个 TCP的数据包发出;
- 如果发送的字节数太短,就会先在缓冲区里等待,等到缓冲区长度差不多了,或者其他合适 的时机发送出去;
- 接收数据的时候,数据也是从网卡驱动程序到达内核的接收缓冲区;
- 然后应用程序可以调用read从接收缓冲区拿数据;
- 另一方面,TCP的一个连接,既有发送缓冲区,也有接收缓冲区,那么对于这一个连接,既 可以读数据,也可以写数据。这个概念叫做 全双工
由于缓冲区的存在,TCP程序的读和写不需要一一匹配,例如:
- 写 100个字节数据时,可以调用一次 write写 100个字节,也可以调用100次 write,每次写一个字节;
- 读100个字节数据时,也完全不需要考虑写的时候是怎么写的,既可以一次read 100个字 节,也可以一次read一个字节,重复100次;
4.1.3粘包问题
[八戒吃馒头例子]
- 首先要明确,粘包问题中的 "包 " ,是指的应用层的数据包。
- 在TCP的协议头中,没有如同 UDP一样的 “报文长度” 这样的字段,但是有一个序号这样的字段。
- 站在传输层的角度,TCP是一个一个报文过来的。
- 按照序号排好序放在缓冲区中。 站在应用层的角度,看到的只是一串连续的字节数据。
- 那么应用程序看到了这么一连串的字节数据,就不知道从哪个部分开始到哪个部分,是一个 完整的应用层数据包。
那么如何避免粘包问题呢?归根结底就是一句话,明确两个包之间的边界。
- 对于定长的包,保证每次都按固定大小读取即可;例如上面的 Request结构,是固定大小的,那么就从缓冲区从头开始按 sizeof(Request)依次读取即可;
- 对于变长的包,可以在包头的位置,约定一个包总长度的字段,从而就知道了包的结束位置;
- 对于变长的包,还可以在包和包之间使用明确的分隔符(应用层协议,是程序猿自己来定的,只要保证分隔符不和正文冲突即可);
思考:对于UDP协议来说,是否也存在 “粘包问题” 呢?
- 对于 UDP,如果还没有上层交付数据,UDP的报文长度仍然在。同时,UDP是一个一个把数 据交付给应用层。就有很明确的数据边界。
- 站在应用层的站在应用层的角度,使用 UDP的时候,要么收到完整的 UDP报文,要么不收。 不会出现 "半个 "的情况。
4.1.4TCP异常情况
进程终止:进程终止会释放文件描述符,仍然可以发送FIN。和正常关闭没有什么区别。 相当于 socket.close()
机器重启:和进程终止的情况相同。
机器掉电/网线断开:接收端认为连接还在,一旦接收端有写入操作,接收端发现连接已经不在了,就会 进行reset。即使没有写入操作,TCP自己也内置了一个保活定时器,会定期询问对方是否还在。如果对方不在,也会把连接释放。
另外,应用层的某些协议,也有一些这样的检测机制。例如HTTP长连接中,也会定期检测对方的状态。 例如QQ,在QQ断线之后,也会定期尝试重新连接。
心跳包:就是在客户端和服务器间定时通知对方自己状态的一个自己定义的命令字,按照一定的时间间隔发送,类似于心跳,所以叫做心跳包。
A发送一个心跳包,那么B也会回复一个心跳包,如果B没有回一个心跳包,那么就是B机器挂了。
4.1.5TCP小结
为什么TCP这么复杂?因为要保证可靠性,同时又尽可能的提高性能。
可靠性:
- 校验和
- 序列号(按序到达)
- 确认应答
- 超时重发
- 连接管理
- 流量控制
- 拥塞控制
提高性能:
- 滑动窗口
- 快速重传
- 延迟应答
- 捎带应答
其他:
- 定时器(超时重传定时器,保活定时器,TIME_WAIT定时器等)
4.1.6基于TCP应用层协议
- HTTP
- HTTPS
- SSH
- Telnet
- FTP
- SMTP
当然,也包括你自己写TCP程序时自定义的应用层协议;
4.2UDP协议
4.2.1UDP协议端格式
- 16位 UDP长度,表示整个数据报(UDP首部+UDP数据)的最大长度;
- 如果校验和出错,就会直接丢弃;
4.2.2UDP的特点
UDP传输的过程类似于寄信。
无连接
知道对端的IP和端口号就直接进行传输,不需要建立连接;
不可靠
没有任何安全机制,发送端发送数据报以后,如果因为网络故障该段无法发到对方,UDP协议层也不会 给应用层返回任何错误信息;
面向数据报
应用层交给UDP多长的报文,UDP原样发送,既不会拆分,也不会合并;
用UDP传输100个字节的数据:
如果发送端一次发送 100个字节,那么接收端也必须一次接收 100个字节;而不能循环接收 10次, 每次接收 10个字节。
缓冲区
UDP只有接收缓冲区,没有发送缓冲区:
UDP没有真正意义上的 发送缓冲区。发送的数据会直接交给内核,由内核将数据传给网络层协议 进行后续的传输动作;
UDP具有接收缓冲区,但是这个接收缓冲区不能保证收到的 UDP报的顺序和发送UDP报的顺序一 致;如果缓冲区满了,再到达的 UDP数据就会被丢弃;
UDP的socket既能读,也能写,这个概念叫做 全双工
大小受限
UDP协议首部中有一个16位的最大长度。也就是说一个UDP能传输的数据最大长度是64K(包含UDP首 部)。
4.2.3基于UDP的应用层协议
- NFS:网络文件系统
- TFTP:简单文件传输协议
- DHCP:动态主机配置协议
- BOOTP:启动协议(用于无盘设备启动)
- DNS:域名解析协议
当然,也包括你自己写UDP程序时自定义的应用层协议。
4.2.4扩展问题
这是一个经典面试题:
- UDP本身是无连接,不可靠,面向数据报的协议,如果要基于传输层UDP协议,来实现一个可靠传 输,应该如何设计?
- UDP大小是受限的,如果要基于传输层UDP协议,传输超过64K的数据,应该如何设计?
以上两个问题答案类似,都可以参考TCP的可靠性机制在应用层实现类似的逻辑:
例如:
- 引入序列号,保证数据顺序;
- 引入确认应答,确保对端收到了数据;
- 引入超时重传,如果隔一段时间没有应答,就重发数据;
- ……
4.3TCP/UDP对比
我们说了TCP是可靠连接,那么是不是TCP一定就优于UDP呢?TCP和UDP之间的优点和缺点,不能简单,绝对的进行比较
- TCP用于可靠传输的情况,应用于文件传输,重要状态更新等场景;
- UDP用于对高速传输和实时性要求较高的通信领域,例如,早期的QQ,视频传输等。另外 UDP可以用于广播;
归根结底,TCP和UDP都是程序员的工具,什么时机用,具体怎么用,还是要根据具体的需求场景去判定。
例如我们在学校的机房里,可靠性就比较高,我们为了追求速度会使用UDP来进行各个电脑间的通信。
5.网络层重点协议
在复杂的网络环境中确定一个合适的路径。
5.1IP协议
协议头格式如下:
- 4位版本号(version):指定IP协议的版本,对于IPv4来说,就是4。
- 4位首部长度(header length):IP头部的长度是多少个32bit,也就是 length * 4 的字节 数。4bit表示最大的数字是15,因此IP头部最大长度是60字节。
- 8位服务类型(Type Of Service):3位优先权字段(已经弃用),4位TOS字段,和 1位保留字段(必须置为 0)。4位 TOS分别表示:最小延时,最大吞吐量,最高可靠性,最小成本。 这四者相互冲突,只能选择一个。对于 ssh/telnet这样的应用程序,最小延时比较重要;对于 ftp这样的程序,最大吞吐量比较重要。
- 16位总长度(total length):IP数据报整体占多少个字节。
这里的16位总长度是否意味着一个 IP 数据报,最大只能支持 64 KB?
确实是有这个限制的,但是 IP 自身就支持对包的拆分和组装,一个 IP 数据报携带的数据载荷太长了,超过了 64KB,就会在网络层针对数据进行拆分。比一个数据拆分成多个 IP 数据报,再分别发送。接收方收到后,再重新拼装。
例如要传输一个 100KB 的数据,网络层就会把这个 100KB 的数据拆包(比如拆成两份) 64KB + 36KB,这两份再交给数据链路层,由以太网分装成两个数据帧。
接收方:数据链路层,针对两个数据帧进行分用,得到两个 ip 数据报,交给网络层。网络层针对这俩 IP 数据报进行解析,把里面的载荷拼成一个,交给传输层…- 16位标识(id):唯一的标识主机发送的报文。如果 IP报文在数据链路层被分片了,那么每一个片里面的这个 id都是相同的。
- 3位标志字段:第一位保留(保留的意思是现在不用,但是还没想好说不定以后要用到)。第 二位置为1表示禁止分片,这时候如果报文长度超过MTU,IP模块就会丢弃报文。第三位表 示"更多分片",如果分片了的话,最后一个分片置为1,其他是 0。类似于一个结束标记。
- 13位分片偏移(framegament offset):是分片相对于原始 IP报文开始处的偏移。其实就是 在表示当前分片在原报文中处在哪个位置。实际偏移的字节数是这个值 * 8 得到的。因此, 除了最后一个报文之外,其他报文的长度必须是 8的整数倍(否则报文就不连续了)。
- 8位生存时间(Time To Live,TTL):数据报到达目的地的最大报文跳数。一般是 64。每次 经过一个路由,TTL -= 1,一直减到 0还没到达,那么就丢弃了。这个字段主要是用来防止出现路由循环。
8位协议:表示上层协议的类型。
16位头部校验和:使用CRC进行校验,来鉴别头部是否损坏。
32位源地址和 32位目标地址:表示发送端和接收端。
我们日常生活中的 IP 则是一串数字。
把 32位,4个字节的数字给分割开,分成 4个部分。每个部分分别使用 0-255 十进制整数表示。
点分十进制
但是我们 32 位数字只能表示 42亿9千万个数字,当前设备已经超出这个数字了,我们怎么解决 IP 地址不够用的问题呢?
答:
- 动态分配 IP 地址,此时就可以省下一批 IP地址了。(并没有从根本上增加 IP 地址,只提高了利用率,治标不治本)
- NAT 网络地址转换。本质是使用一个 IP 表示一批设备。
外网IP
内网IP (10.,172.16.-172.31.*,192.168.**)- IPv6 根本上解决了 IP 不够用的问题 使用 16 字节表示 IP 地址 128位 相当于 42亿9千万个数字的四次方个数字。虽然 IPv6 看起来非常美好,但是世界上,仍然是以 NAT + IPv4 + 动态分配来进行网络组建的。真正使用 IPv6 的地方非常非常少!!!
那么为什么 IPv6 使用非常少呢,因为贵!!! IPv6 和 IPv4 不兼容。选项字段(不定长,最多 40字节):略。
6.数据链路层重点协议
6.1认识以太网
- "以太网 " 不是一种具体的网络,而是一种技术标准;既包含了数据链路层的内容,也包含了 一些物理层的内容。
- 例如:规定了网络拓扑结构,访问控制方式,传输速率等; 例如以太网中的网线必须使用双绞线;传输速率有10M,100M,1000M等;
- 以太网是当前应用最广泛的局域网技术;和以太网并列的还有令牌环网,无线 LAN等;
6.1.1以太网帧格式
以太网数据帧 = 帧头 + 载荷 + 帧尾
帧头(目的地址 源地址 类型) 载荷(完整的 IP 数据报) 帧尾()
以太网的帧格式如下所示:
- 源地址和目的地址是指网卡的硬件地址(也叫 MAC地址 - 6个字节 物理地址),长度是48位,是在网卡出厂时固化的;
- 帧协议类型字段有三种值,分别对应 IP、ARP、RARP;
- 帧末尾是CRC校验码。
6.1.2 IP地址 和 mac地址有啥区别吗?
想必大家都有一个疑问吧,那就是既然有了 IP地址 ,为什么还要创造一个 mac 地址呢?
这其实是一个悲伤的故事,加入只有一套地址体系 (比如 IP 和 以太网都是用 IP地址/mac地址) 是完全可以玩得转的
但是最开始大佬们研发初代的协议栈的时候,研发 网络层协议 和 研发 数据链路层协议 的大佬是两伙人,他们各自独立的研发出了一套地址体系。最后双方大佬各用各的地址,于是就演化成了两套地址体系,相互配合使用。
那么 IP 和 mac 是如何配合的呢?
IP 用来描述争个整个传输过程的起点终点。 mac 则是用来描述 两个相邻节点,起点终点(各司其职)
IP做的事情:
mac做的事情:
总结:IP 描述的是 “初心”,最初从哪来到哪去,最初的目标是啥?
mac 描述的是 当前阶段 的任务。
6.2认识MTU(对于较大的IP数据包要进行分包)
MTU相当于发快递时对包裹尺寸的限制。这个限制是不同的数据链路对应的物理层,产生的限制。
- 以太网帧中的数据长度规定最小 46字节,最大1500字节,ARP数据包的长度不够 46字节,要在后面补填充位;
- 最大值1500称为以太网的最大传输单元(MTU),不同的网络类型有不同的MTU;
- 如果一个数据包从以太网路由到拨号链路上,数据包长度大于拨号链路的MTU了,则需要对数据包进行分片(fragmentation);
- 不同的数据链路层标准的MTU是不同的;
6.2.1MTU对IP协议的影响
由于数据链路层MTU的限制,对于较大的IP数据包要进行分包。
- 将较大的IP包分成多个小包,并给每个小包打上标签;
- 每个小包IP协议头的 16位标识(id) 都是相同的;
- 每个小包的IP协议头的 3位标志字段中,第 2位置为 0,表示允许分片,第 3位来表示结束标记 (当前是否是最后一个小包,是的话置为1,否则置为 0);
- 到达对端时再将这些小包,会按顺序重组,拼装到一起返回给传输层;
- 一旦这些小包中任意一个小包丢失,接收端的重组就会失败。但是IP层不会负责重新传输数据;
6.2.2MTU对UDP协议的影响
让我们回顾一下UDP协议:
- 一旦UDP携带的数据超过 1472(1500 - 20(IP首部) - 8(UDP首部)),那么就会在网络层分成多个IP数据报。
- 这多个IP数据报有任意一个丢失,都会引起接收端网络层重组失败。那么这就意味着,如果 UDP数据报在网络层被分片,整个数据被丢失的概率就大大增加了。
6.2.3MTU对于TCP协议的影响
让我们再回顾一下TCP协议:
- TCP的一个数据报也不能无限大,还是受制于 MTU。TCP的单个数据报的最大消息长度,称为 MSS(Max Segment Size);
- TCP在建立连接的过程中,通信双方会进行 MSS协商。
- 最理想的情况下,MSS的值正好是在 IP不会被分片处理的最大长度(这个长度仍然是受制于 数据链路层的 MTU)。
- 双方在发送 SYN的时候会在 TCP头部写入自己能支持的 MSS值。
- 然后双方得知对方的 MSS值之后,选择较小的作为最终 MSS。
- MSS的值就是在 TCP首部的40字节变长选项中( kind=2);
MSS和MTU的关系
6.3ARP协议
虽然我们在这里介绍ARP协议,但是需要强调,ARP不是一个单纯的数据链路层的协议,而是一个介于 数据链路层和网络层之间的协议;
6.3.1ARP协议的作用(直到 ip 通过 ARP 来返回 mac)
ARP协议建立了主机 IP地址 和 MAC地址 的映射关系。
- 在网络通讯时,源主机的应用程序知道目的主机的 IP地址和端口号,却不知道目的主机的硬件地址;
- 数据包首先是被网卡接收到再去处理上层协议的,如果接收到的数据包的硬件地址与本机不符,则直接丢弃;
- 因此在通讯前必须获得目的主机的硬件地址;
6.3.2ARP协议的工作流程
文章来源:https://www.toymoban.com/news/detail-712700.html
- 源主机发出ARP请求,询问“IP地址是192.168.0.1的主机的硬件地址是多少”,并将这个请求广播到本地网段(以太网帧首部的硬件地址填FF:FF:FF:FF:FF:FF表示广播);
- 目的主机接收到广播的ARP请求,发现其中的 IP地址与本机相符,则发送一个ARP应答数据包 给源主机,将自己的硬件地址填写在应答包中;
- 每台主机都维护一个ARP缓存表,可以用arp -a命令查看。缓存表中的表项有过期时间(一般 为20分钟),如果20分钟内没有再次使用某个表项,则该表项失效,下次还要发ARP请求来 获得目的主机的硬件地址
7.总结
7.1数据链路层
- 数据链路层的作用:两个设备(同一种数据链路节点)之间进行传递数据
- 以太网是一种技术标准;既包含了数据链路层的内容,也包含了一些物理层的内容。例如: 规定了网络拓扑结构,访问控制方式,传输速率等;
- 以太网帧格式
- 理解mac地址
- 理解arp协议
- 理解MTU
7.2网络层
- 网络层的作用:在复杂的网络环境中确定一个合适的路径。
- 理解 IP地址,理解 IP地址和 MAC地址的区别。
- 理解 IP协议格式。
- 了解网段划分方法
- 理解如何解决 IP数目不足的问题,掌握网段划分的两种方案。
- 理解私有 IP和公网 IP 理解网络层的 IP地址路由过程。理解一个数据包如何跨越网段到达最终目的地。
- 理解 IP数据包分包的原因。
- 了解 NAT设备的工作原理。
7.3传输层
- 传输层的作用:负责数据能够从发送端传输接收端。
- 理解端口号的概念。 认识 UDP协议,了解 UDP协议的特点。
- 认识 TCP协议,理解 TCP协议的可靠性。理解 TCP协议的状态转化。
- 掌握 TCP的连接管理,确认应答,超时重传,滑动窗口,流量控制,拥塞控制,延迟应答, 捎带应答特性。
- 理解 TCP面向字节流,理解粘包问题和解决方案。
- 能够基于 UDP实现可靠传输。
- 理解 MTU对 UDP / TCP的影响。
7.4应用层
- 应用层的作用:满足我们日常需求的网络程序,都是在应用层
- 能够根据自己的需求,设计应用层协议。
- 了解HTTP协议。
- 理解DNS的原理和工作流程。
感谢各位读者的阅读,本文章有任何错误都可以在评论区发表你们的意见,我会对文章进行改正的。如果本文章对你有帮助请动一动你们敏捷的小手点一点赞,你的每一次鼓励都是作者创作的动力哦!😘文章来源地址https://www.toymoban.com/news/detail-712700.html
到了这里,关于7.网络原理之TCP_IP(下)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!