深度思考计算机网络面经之二

这篇具有很好参考价值的文章主要介绍了深度思考计算机网络面经之二。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HTTP2和1.1的区别

HTTP 2.0 和 HTTP 1.1 相比有哪些优势呢?

HTTP1.1的队头阻塞问题

服务器必须按照请求接收的顺序来响应,为什么

是因为传统的1.1中没有特定字段来区分一个请求属于哪个,只能按照请求的物理顺序返回,

HTTP2解决队头阻塞问题的思路是,额外定义一个帧结构字段,使得发送方收到响应后能够根据流id进行重排序,比如同时请求5张图片,流id分别为1-5,那么响应时不必按照物理的请求顺序响应,对吗?

正如你所说,HTTP/2通过引入“流”的概念来解决队头阻塞问题。每个流都有一个唯一的标识符(流ID),这使得多个请求和响应可以在同一个TCP连接上并行进行,而不会互相干扰。这样,如果一个流的响应被延迟,它不会阻碍其他流的处理。

确切地说,HTTP/2中的“帧”结构允许多种类型的信息在一个TCP连接上进行交换。其中的“流ID”字段标识了帧属于哪一个流。当客户端收到响应时,它可以根据流ID对响应进行排序或处理,而不是依赖物理的发送顺序。这使得服务器可以在准备好响应时立即发送它,而不需要等待其他请求的响应

总之,HTTP/2的设计允许更高的并行性和效率,避免了HTTP/1.1中的队头阻塞问题。

HTTP2的这种解决队头阻塞问题的思路在其他的地方有应用嘛(实际上是一种多路复用机制)

HTTP/2 的解决队头阻塞问题的思路基于多路复用和帧的概念,确实为其他技术领域提供了启示。其背后的基本原理是允许多个独立的交互在同一个连接上并行进行,而每个交互都有其独特的标识符,使其在被发送和接收时能够被正确地识别和处理。

这种思路在以下领域也有应用:

  1. 计算机网络的其他协议:例如在某些现代传输层协议如QUIC中,也使用了类似于流的概念,允许在单一的连接上并行处理多个独立的数据流。

  2. 数据库管理:在处理多个并发事务时,一些数据库使用标识符来区分和正确地处理每个事务,确保每个事务的独立性和完整性。

  3. 计算机操作系统:在操作系统的多任务处理中,每个任务或进程都有其独特的标识符,允许它们在一个系统中并行运行,而操作系统能够正确地管理和调度这些任务。

  4. 消息队列和流处理:在处理大量并发消息时,像Kafka这样的消息队列系统使用分区或其他标识符来并行处理消息,确保消息的正确和高效处理。

  5. 网格计算和并行计算:在处理分布式任务时,每个任务都可能有其独特的标识符,允许它们在多个节点上并行运行,而系统能够正确地收集和组合结果。

这种将大型任务或请求分解为可独立处理的小块,并为每块分配唯一标识符的思路,在计算机科学和工程的许多领域中都有应用。

阿里面试时遇到多路复用机制场景题(这里的IO多路复用类似于HTTP2.0中加入流id的字段,而面试官提到的方案是在资源足够充足的时候的一种解决方案,类似于HTTP1.1建立多个TCP连接的解决方案)

背景:架构实例反向同步到架构定义表,涉及到6张表的同步,后续表还有可能增多

## 2.6 同步过程你是如何保证数据的一致性的

答:我这个同步的过程是六张实例表同步到对应的六张定义表中(其实它们都在一张表,只不过存在架构定义和架构实例字段以表示区别);我当时没有保证他的一致性,但是我现在想到的一个解决方案是将其加入到消息队列中,消息队列定期消费,如果消息队列本身是raft集群部署,本身可以保证一致性的。

### 2.6.1 你整个消息队列的消息体是什么?包含哪些核心数据

答:比如说序列号,消息体中应该还包含我定义的那些模板,比如说表名,表类结构,需要同步的字段啊

### 2.6.2 你们那边应该是有节点实例id吧,如果一个节点多次发生了变更,你投放到消息队列,实际消费的时候,会不会出现乱序的问题?

答:有可能啊,那就开六个队列吧,每一个队列单线程消费

### 2.6.3A同步到B,比如是从淘宝的买家数据到卖家的同步,是不是不能用你的单队列单线程的模式去走?因为这样会限制消费速率,遇到这种场景,如何去设计他呢?避免乱序。

答:可以借鉴tcp的序列号机制,给每一个队列都加上两个字段,一个是表名,一个是序列号,不同表名下的序列号空间隔离,这样接收端收到消息后可以依据这个序列号空间的连续性进行重排序。

### 2.6.4 你这里有一个问题,如果发送端节点实例变化频繁,发送和接收的地方是不知道的,所以你这个方案是不太行的

针对感知变更号的优化方案:

答:我在消息体上再加一个字段,表示变更的版本,这样接收端收到发送端的消息时,会比较发送端发送的版本和自己期望的版本是否一致,一致则加入到那个版本的缓冲区中,不一致则放入到其他版本的缓冲区中,延迟到接收到期望的变更号

面试官的方案(他说我的方案是一种思路,但是比较复杂):\
可以采用多节点方案,比如针对同一个节点的版本的变更号的消息统一经由一个消息队列节点发送,通过节点隔离实现变更号隔离。

我:你这种方案更我前面说的按照表拆分队列有什么不同呢?

面试官:你的这种方式拆分的节点数和表的数量相同,但是我说的这种相当于按照"节点+变更号"的方式拆分节点,每一个消息队列节点负责某一个节点实例id(这个实例id是逻辑id,用于解耦合)的某一个版本,拆分的粒度更细,整个的吞吐量会大很多,比如说一个同步六张表,每张表有10个变更号,按照你的方案最多拆分成6个队列,但是按照我的方案可以拆分成60个队列。

HTTP2的Multiplexing

HTTP2 Multiplexing是什么,有什么作用,机制是什么

在HTTP/1.1中,每个HTTP请求需要一个独立的TCP连接,这使得同时发送多个请求需要开启多个TCP连接。但在HTTP/2中,引入了多路复用(Multiplexing)技术,允许在单个TCP连接上同时发送多个HTTP请求和接收响应。

HTTP中的流水线和Multiplexing

流水线和Multiplexing是HTTP协议中两种不同的技术,它们都旨在提高网络传输的效率。

流水线(Pipelining):在HTTP/1.1中引入,允许在一个持久连接中,客户端可以连续发送多个请求,而无需等待每个响应。但是,HTTP/1.1规定响应必须按照请求的顺序返回,这就引发了“队头阻塞”问题,即如果一个请求的处理需要很长时间,那么后续的响应也会被阻塞。

Multiplexing(多路复用):在HTTP/2中引入,允许在一个持久连接中,客户端和服务器可以同时处理多个请求和响应。Multiplexing通过将每个请求和响应分割为多个帧,这些帧可以在一个连接中混合发送,并在接收端进行重新组装。由于没有了队头阻塞问题,Multiplexing的效率更高。

HTTP/2 的多路复用(Multiplexing)机制通过引入“流”(Stream)的概念来保证请求和响应的顺序性。

在 HTTP/2 中,每个请求响应对都被视为一个独立的流。每个流都有一个唯一的标识符,称为“流 ID”(Stream ID)。流可以并行发送,因为每个帧都被标记为属于某个流,这通过帧的头部中的流 ID 来实现。

以下是如何保证顺序性的:

  1. 帧的顺序:尽管多个流的帧可以在一个连接上混合发送,但单个流内的帧的顺序是固定的。例如,流 A 的帧1、帧2、帧3 的发送顺序不会被打乱。

  2. 流 ID:每个流都有一个唯一的流 ID,这使得接收端可以根据帧的流 ID 将其正确地关联到相应的请求或响应上。

  3. 流控制:HTTP/2 还引入了流控制机制,允许接收端控制其接收数据的速率,这进一步确保了数据的有序接收和处理。

总之,多路复用允许多个请求和响应在一个连接上并行发送,但每个流内部的帧的顺序是保持一致的。接收端根据帧的流 ID 和顺序重新组装每个流,从而确保请求和响应的正确和顺序处理。

为什么允许浏览器同服务端建立多个tcp连接?不是有流水线技术吗?

虽然HTTP/1.1中的流水线技术和HTTP/2中的Multiplexing技术都可以在一个TCP连接中处理多个HTTP请求,但是由于队头阻塞问题,流水线技术在实践中使用得并不多。因此,HTTP/1.1的客户端通常会为同一个服务器建立多个TCP连接,以并行处理多个HTTP请求。而在HTTP/2中,由于引入了Multiplexing技术,一个TCP连接就可以并行处理多个请求,因此一般不再需要建立多个连接。

如果允许建立多个tcp连接,接收端如何区分和按照规则重组同时接收的多个报文段?

TCP协议保证了每个连接的数据的有序性和完整性。在TCP协议中,每个数据段都有一个序号,接收端可以根据这个序号来重新组装数据。所以,即使有多个TCP连接,接收端也可以正确地处理每个连接的数据。这是由于每个TCP连接都有独立的序列号空间和确认机制,因此,尽管这些连接可能同时存在,但它们是完全独立的。

1 问:每个TCP连接都有独立的序列号空间和确认机制来保证即使建立多个TCP连接,接收方也能正确重组,讲讲这种机制?

在TCP协议中,每个TCP连接都被定义为一个四元组:源IP地址、源端口、目的IP地址、目的端口。这个四元组唯一地标识了一个TCP连接,这也是独立序列号空间的保证,每个TCP连接都有自己独立的序列号空间,这是由TCP协议保证的。序列号用于标识在TCP连接中发送的数据字节的顺序。

当建立一个新的TCP连接时,发送方和接收方都会在握手过程中交换它们的初始序列号(ISN)。之后,发送方发送的每一个字节都会有一个序列号,这个序列号就是该字节的ISN加上它在发送数据流中的偏移量。接收方可以根据这个序列号来判断接收的数据字节的顺序,以及是否有数据丢失。

此外,TCP还使用确认机制来确认数据的接收。当接收方接收到数据后,它会发送一个确认(ACK),确认号是接收方期望接收的下一个字节的序列号。如果发送方没有收到接收方的确认,它会重新发送数据。

所以,通过独立的序列号空间和确认机制,即使有多个TCP连接,接收方也能正确地接收和重组每个连接的数据。

2 建立多个TCP连接就会占用多个端口对吗?

是的,每个新的TCP连接都需要一个新的端口。但需要注意的是,通常情况下,客户端(也就是发起连接的一方)会使用一个新的端口,而服务器端(接收连接的一方)通常会使用一个固定的、已知的端口(例如HTTP的默认端口是80,HTTPS的默认端口是443)。操作系统会为客户端自动选择一个未被使用的临时端口。

3 这里的TCP四元组源IP地址、源端口、目的IP地址、目的端口唯一标识了每一个TCP序列号的空间对不对?

对的,TCP四元组(源IP地址、源端口、目的IP地址、目的端口)确实唯一标识了一个TCP连接。序列号是在每个TCP连接内部使用的,用于保证连接中数据的正确顺序和完整性。这意味着每个TCP连接都有自己独立的序列号空间,不会和其他TCP连接冲突。这是因为每个TCP连接都是独立的,其状态(包括序列号)不会影响其他连接。

4 所以即使建立了多个TCP连接,目的端口依然不变,但是变化的是源端口,这样也唯一标识了命名空间?

是的,你的理解是正确的。即使多个TCP连接的目的端口(通常是服务器端的端口)相同,只要源端口(通常是客户端的端口)或源IP地址有所不同,这就足以在网络层面唯一标识一个TCP连接。这就是为什么我们可以同时从同一台设备(同一IP)打开多个连接到同一服务器的同一端口(比如浏览器的多个标签页连接到同一网站)。

5 在“所以即使建立了多个TCP连接,目的端口依然不变,但是变化的是源端口,这样也唯一标识了命名空间” 成立的条件下,目的端口都相同,所以就会发生复用和分用对吧?

对的,你的理解是准确的。我们称之为复用和分用是因为服务器端的同一端口能够服务于来自不同客户端的多个连接(复用,服务即指发送或者响应数据),同时也能够根据每个连接的唯一标识(源IP和源端口)将接收到的数据正确地传送给对应的连接/进程(分用)

复用和分用

复用(multiplexing):指的是在网络发送端,较高层协议可以通过同一个较低层的服务接口发送数据到不同的接收端。例如,你的计算机(作为客户端)可以通过同一个网络层接口(即同一个IP地址和端口)发送数据到服务器的不同端口,或者发送到不同的服务器。这个过程我们称之为复用。

分用(demultiplexing):相应的,在网络接收端,较低层协议可以将接收到的数据按照一定的规则(比如目标IP和端口)分发给较高层的不同服务接口。例如,服务器可以将收到的数据根据数据的源IP和源端口信息分发到不同的应用程序。这个过程我们称之为分用。

下面这个是详细地址: 《计算机网络》知识总结-3.复用和分用

详细讲讲HTTP/2的Multiplexing实现机制

HTTP/2的Multiplexing实现机制:在HTTP/2中,所有通信都在一个TCP连接上完成,这个连接可以承载任意数量的双向数据流。每个数据流都有一个唯一的整数ID。数据流的请求和响应都是由HTTP帧组成的,这些帧可以在TCP连接中交错发送,然后在接收端根据数据流ID重新组装。

更具体地,HTTP/2定义了以下几种类型的帧:HEADERS和DATA用于请求和响应的元数据和主体;SETTINGS, PING, and GOAWAY等用于连接管理;PUSH_PROMISE用于服务器推送等。

由于HTTP/2的帧可以在一个TCP连接中交错发送,因此可以解决HTTP/1.x的队头阻塞问题,并使得连接的利用率更高。
因为传统的流水线技术需要前面的包完整且正确到达接收端,如果在发送端混合发送一个被切割的多个报文段并且和其他应用的报文段无序组合在一起,然后发送给接收端,接收端收到第一个帧后还会再等待该帧的剩余部分到达,全部接收后才会解除阻塞。

这里涉及到的“帧”是指数据链路层的帧吗?

HTTP/2中的"帧"是在应用层的概念,它不是数据链路层的帧。在HTTP/2中,一个"帧"代表了HTTP/2通信中的最小单位,每一个帧包括帧头和帧体,其中帧头包含了该帧的类型、标志、长度、以及数据流的标识符。

这里的Multiplexing和TCP层的I/O多路复用是同一个概念吗?

HTTP/2的Multiplexing和TCP层的I/O多路复用不是同一个概念。HTTP/2的Multiplexing是指在一个TCP连接中可以并行处理多个请求和响应。而TCP层的I/O多路复用是指在底层操作系统中,可以使用单个线程来同时监控和操作多个I/O流,如select、poll、epoll等。

这里的Multiplexing 和linux的epoll,select等多路复用机制有什么区别?

HTTP/2的Multiplexing和Linux的epoll、select等多路复用机制的主要区别在于他们工作的层次不同:

HTTP/2的Multiplexing工作在应用层,它是HTTP/2协议的一部分,主要用于在一个TCP连接中并行处理多个HTTP请求和响应。

epoll、select等工作在操作系统层,它们是操作系统提供的接口,主要用于在一个线程中同时处理多个网络连接或其他I/O操作。

另外,epoll、select等多路复用机制是事件驱动的,当某个I/O流就绪(比如有数据可读)时,会触发相应的事件。而HTTP/2的Multiplexing则是数据驱动的,当有新的帧发送到TCP连接时,会立即处理这个帧。

这里HTTP的Multiplexing和TCP层的I/O多路复用应该有类似的原理吧?

HTTP/2的Multiplexing和TCP层的I/O多路复用的核心概念都是通过单一的连接或资源处理多个数据流或操作,所以在这个意义上,它们的原理是类似的。但是,如我在上一个回答中所述,它们工作的层次和具体的机制是不同的。

Multiplexing通过将每个请求和响应分割为多个帧,这些帧可以在一个连接中混合发送,可以理解为A请求的数据帧和B请求的一些数据帧混合在一个TCP报文段中然后发送给接收方,接收方的应用层根据分隔符,长度,套接字等字段的方式进行重组吗?

大致上你的理解是正确的,但细节上需要一些调整。在HTTP/2中,一个请求或响应的帧不会混合在一个TCP报文段中,而是作为独立的帧在TCP连接中(HTTP请求)发送。每个帧的头部都有一个数据流ID,这个ID用于指示这个帧属于哪个请求或响应。接收方的应用层可以根据这个数据流ID来将接收到的帧重新组装成完整的请求或响应。因此,不是根据分隔符、长度、套接字等字段来进行重组,而是根据每个帧的数据流ID来进行重组。

HTTPS和HTTP

HTTPS的交互流程

大概的交互流程:

是的,HTTPS基于HTTP协议,但是在HTTP和TCP之间增加了一个SSL/TLS的安全层。这个安全层为HTTP协议提供了数据加密服务,以保护数据在传输过程中不会被窃取或篡改,同时还可以进行服务器身份验证,以保护用户不会被引向假冒的服务器。

在实际使用中,HTTPS协议的工作流程大致可以分为两步:

  1. 握手阶段:在客户端和服务器之间建立SSL/TLS会话。在这个过程中,会进行服务器身份验证(通过服务器的SSL/TLS证书),同时双方还会协商出一套加密参数(例如使用哪种加密算法,密钥是什么等)。这个会话一旦建立,就可以提供加密服务。

  2. 数据传输阶段:客户端和服务器使用HTTP协议进行数据的传输,但是在数据发送出去之前,会先用握手阶段协商出的加密参数对数据进行加密,接收方在接收到数据后再进行解密。

所以,可以说HTTPS是基于HTTP的,但是增加了数据加密和服务器身份验证的功能,从而提供了更高的安全性。

更详细的交互可以参考下面:HTTPS的交互流程

针对SSL层的报文重放攻击如何处理?

上述操作看似是实现了对安全通信的三个基本需求,但是其对整个会话过程中报文流的数据完整性的保障并未达到天衣无缝,虽然单个记录的报文完整性可以由 MAC 保障,但是若是入侵者恶意调换两个 SSL 记录的顺序,或者故意多次重放同一个 SSL 记录多次,这样会导致接收方收到的最终报文不正确,这也就是 “报文重放攻击”。

报文重放攻击时指针对ssl层的嘛?因为tcp层次存在一个序号和确认号字段,能过滤掉重复的tcp报文段,但是过滤不掉tcp序号不同,但是ssl证书重放的tcp报文段对不对

是的,你理解得正确。报文重放攻击是对应用层,特别是那些使用加密和认证机制(例如SSL或TLS)的协议来说的。由于SSL/TLS在TCP层之上,它们通常不会处理TCP层面的问题,如数据重传或者丢包等,这些问题通常由TCP自身处理。因此,SSL/TLS需要处理一些TCP无法处理的安全问题,其中包括报文重放攻击。

在TCP层面,序列号和确认号确实可以过滤掉重复的TCP段,也能在一定程度上防止数据重排。然而,这并不能防止在SSL/TLS层面上的报文重放攻击。为什么呢?因为攻击者可能截取并存储一个完整的SSL/TLS会话,然后在稍后的时间里,再重放这个会话。尽管这些报文在TCP层面看起来都是新的(因为它们具有新的TCP序列号),但在SSL/TLS层面,它们其实是旧的报文,因此可能导致报文重放攻击。
因此,SSL/TLS必须在协议层面实现一些防御措施来防止这种攻击,例如通过在每个记录中包含一个隐式的序列号,并在计算MAC时考虑这个序列号,以此来确保报文的顺序和完整性。

业界通用的解决方案是什么样的呢?

业界的通用做法是在协议设计时考虑这种攻击场景,然后提供相应的保护措施。例如,SSL/TLS协议通过在MAC计算中引入序列号(即使这个序列号在发送的报文中并不可见,也就是"隐式"的)来防止重放攻击。除此之外,对于某些关键操作(例如支付操作),业务系统自己也会设计一些防重放机制,如在请求中包含一个时间戳,或者一个只能使用一次的随机数(nonce)等。

讲讲使用序列号的方式来防重放攻击的具体C/S交互流程

具体的C/S交互流程可能会因为具体的协议和应用场景而有所不同。但是对于SSL/TLS协议来说,它在握手阶段就会建立起双方共享的密钥,然后双方就可以开始安全地交换数据了。在这个过程中,为了防止重放攻击,每一侧的发送端会为它发送的每一条记录维护一个序列号,并在计算MAC值时使用这个序列号。当接收端收到一条记录后,它会用同样的方法来计算MAC值,如果计算出的MAC值与记录中的MAC值匹配,那么这条记录就会被接受。否则,如果MAC值不匹配,那么这条记录就会被拒绝,因为它可能是一个重放的记录。

重放会导致这个MAC不匹配,为什么

在SSL/TLS中,每次发送一条新的记录,发送端都会自增序列号(这个特性很重要,其实跟TCP的重冲机制很类似)。这个序列号被包含在了MAC(消息认证码)的计算过程中。MAC是通过将共享密钥、序列号、消息内容等数据进行特定算法运算得到的。这个MAC会被一同发送到接收端。

接收端在收到消息后,会使用同样的密钥和它自己维护的序列号进行同样的算法运算,得到一个新的MAC。然后接收端会比较这个新计算出的MAC和接收到的MAC是否一致。

如果发送端的消息被恶意重放,那么重放的消息中的MAC是在原发送时计算的,当时的序列号已经过时。而接收端在收到重放消息后,会使用当前的(已经增加的)序列号进行MAC计算,得到的MAC值和接收到的消息中的MAC是不一致的,因此接收端能够识别出这是一个重放的消息,并拒绝接收。

也就是说,序列号的自增机制和序列号在MAC计算中的使用,联合起来防止了重放攻击,这也是为什么重放会导致MAC不匹配的原因。

使用HTTPS通信,每次接收端收到一个请求都会对SSL的有效性进行校验嘛,校验过程中使用到了MAC的验证机制嘛,然后可以顺带去重?

使用HTTPS通信时,接收端会对每个SSL/TLS记录进行完整性和真实性的校验,这个过程中会使用到MAC。在每个记录接收和发送的过程中,都会维护一个序列号,这个序列号将被包含在MAC的计算过程中,所以通过验证MAC值的合法性,可以实现对重放攻击的防护。

MAC的加密、解密流程说一下,是不是使用对称密钥和非对称密钥的情况下,MAC的生成和校验流程不一样

MAC (Message Authentication Code) 是使用共享密钥和消息内容计算得出的一个值。其主要作用是用来验证消息的完整性和真实性,它不涉及到数据加密的过程。在SSL/TLS通信中,MAC的使用并不受对称加密还是非对称加密的影响,生成和验证的流程是一样的。

  • 在生成MAC时,首先会有一个预共享的密钥,这个密钥在通信双方之间是已知的。然后会将消息内容(包括序列号、消息长度等信息)和这个预共享密钥一起输入到一个特定的哈希函数(如HMAC-SHA256),输出的哈希值就是MAC。

  • 在验证MAC时,接收方将同样的预共享密钥和接收到的消息内容输入到同样的哈希函数中,计算得到一个新的MAC。然后比较这个新计算得到的MAC和接收到的MAC是否一致。如果一致,说明消息是由预期的发送方发送的,且在传输过程中没有被修改。如果不一致,说明消息可能被篡改,或者不是由预期的发送方发送的。

需要注意的是,MAC机制能够保证消息的完整性和真实性,但它不能保证消息的机密性,也就是说,消息本身并没有被加密,如果要保证消息的机密性,还需要其他的加密技术,如对称加密或非对称加密。

在请求中包含一个时间戳,为什么能防止ssl防重放攻击呢,是因为可以根据时间戳过滤掉太久远的https请求吗?

时间戳通常用来防止重放攻击的一种方法。服务端在接收到请求后,会检查请求中的时间戳是否在一个合理的时间窗口内(例如,过去的5分钟)。如果请求的时间戳过旧,服务器就可以认为这是一个重放的请求并将其拒绝。这就需要客户端和服务器的系统时间保持一致,或者至少要相差不大。

使用“一个只能使用一次的随机数”策略,是不是得要求双方存储这个随机数并且标记是否过期?(其实对序列号而言也是这样的,需要双方维护一个最近一次使用成功的序列号列表)

对于“一个只能使用一次的随机数”策略,通常需要服务端维护一份列表,记录所有的随机数以及他们是否被使用过。当服务端接收到一个请求,它会检查这个随机数是否在列表中,如果不在,说明这是一个新的请求,接受处理。如果在列表中且未使用,同样接受处理,并标记为已使用。如果在列表中且已被使用,那么拒绝这个请求。

MAC和JWT的关系,JWT会用到MAC嘛

MAC的全称Message Authentication Code,关于JWT可以参考这篇文章:想全面理解JWT?一文足矣
JWT (JSON Web Token) 和 MAC 的关系是,JWT 的签名部分可以使用 HMAC(一种基于密钥的哈希算法,是 MAC 的一种)生成。这种签名可以保证 JWT 的完整性和验证消息的发出者。

网站上输入一个URL涉及到的协议

过程

dns+arp+ip+tcp+http+ssl+websocket

一定得用到dns协议吗

不一定,如果url是直接使用ip+端口号访问则无语dns,如果只有域名则需要dns协议解析到dns协议

mac和ip的不同之处

MAC地址:物理地址,用于网络设备之间在同一局域网内进行通信。它是全球唯一的,由网络设备制造商在生产时分配,通常硬编码在网络接口卡(NIC)硬件中。
IP地址:逻辑地址,用于在网络上唯一标识一个网络接口。IP地址可能是静态分配的,也可能是动态从DHCP服务器上获取的。同一个网络设备在不同的网络环境下可能会有不同的IP地址。

arp是一种什么报文呢,用什么实现的呢,知道吗

ARP (Address Resolution Protocol) 是一种解析协议,可以将IP地址解析为对应的MAC地址。当一个设备需要向网络上的另一个设备发送数据时,它会首先使用ARP协议找到目标设备的MAC地址。ARP请求和回应都是封装在以太网帧中进行发送的。

到了主机之后,我怎么知道你要处理的是https还是http

这通常是通过所使用的端口来区分的。默认情况下,HTTP使用的是80端口,HTTPS使用的是443端口。当然,这些端口是可以配置的,不一定非要使用默认端口。(我答成了https的建立过程去了)
https不是建立在http之上吗,http的端口是80,打算https的是443,建立起http后还可以更改端口号吗?
HTTPS确实是建立在HTTP之上的,但它们使用的端口号是不同的。HTTP默认的端口号是80,HTTPS默认的端口号是443。这是由于HTTP和HTTPS实际上是两种不同的协议,尽管它们的内容和格式非常相似。当我们说将HTTP升级为HTTPS时,实际上是指在HTTP的基础上增加了SSL/TLS的加密层,从而使得数据传输更加安全。至于能否在建立起HTTP连接后更改端口号,一般来说,这是不可以的。端口号是在TCP连接建立时确定的,一旦TCP连接建立,端口号就不能改变。如果需要改变端口号,就必须断开现有的TCP连接,然后重新建立新的TCP连接。

建立ssl的第一个请求是由客户端发起还是服务端发起的呢?

在SSL/TLS协议中,连接的建立一般是由客户端发起的。客户端会首先发送一个“ClientHello”消息给服务器,表示它希望建立一个SSL/TLS连接。然后服务器会回应一个“ServerHello”消息,以及服务器的证书和“ServerHelloDone”消息。之后的握手过程中还会涉及到密钥交换和握手结束等步骤。
为什么是客户端发起的呢,因为客户端知道一开始就得使用https协议吗?
通常情况下,客户端是知道是否需要使用HTTPS的。比如当你在浏览器中输入一个URL时,你会指定是使用http://还是https://。如果你指定的是https://,那么浏览器就知道需要使用HTTPS,从而在建立TCP连接后,立即开始SSL/TLS握手过程。这个握手过程是由客户端发起的,因为在SSL/TLS协议中,客户端负责提供加密参数的选择,并开始握手过程。

数字证书里面有什么呢?

数字证书通常包含以下信息:
证书所有者的公开密钥
证书所有者的信息(包括名称、电子邮件地址、使用证书的权限等)
发行证书的证书颁发机构(CA)的信息
证书的有效期
证书颁发机构对上述信息的数字签名

客户端拿到证书怎么验证是否有效呢?

验证证书是否是上级CA 签发的, 在验证证书的时候,浏览器会调用系统的证书管理器接口对证书路径中的所有证书一级一级的进行验证,只有路径中所有的证书都是受信的,整个验证的结果才是受信。

客户端在收到服务器的证书后,会做以下检查来验证证书的有效性:

  • 验证证书的签名:客户端会使用证书颁发机构的公钥来验证证书的签名,以此来确认证书的内容没有被篡改。
  • 验证证书的有效期:证书都有一个有效期,如果当前日期不在证书的有效期内,那么证书就是无效的。
  • 验证证书的颁发机构:客户端会检查证书的颁发机构是否是信任的,这通常是通过检查操作系统或浏览器中的信任的CA列表来完成的。

验证证书的签名:客户端会使用证书颁发机构的公钥来验证证书的签名,以此来确认证书的内容没有被篡改。你能看开讲讲其中的流程吗?
对于数字证书的签名验证过程,以下是一种可能的简化描述:

  • 客户端收到服务器的数字证书后,首先从证书中获取证书颁发机构(CA)的公钥。
  • 客户端使用CA的公钥来解密证书中的数字签名,得到一个摘要值。
  • 客户端同时也会对证书中的除了数字签名之外的所有内容进行哈希计算,得到另一个摘要值。
  • 客户端将这两个摘要值进行比较,如果它们相同,那么就说明证书的内容没有被篡改过,证书是有效的。如果它们不同,那么就说明证书的内容可能被篡改过,证书是无效的。

这个过程中的关键是,只有真正的CA才能生成一个能够被它的公钥正确解密的数字签名,因此通过这种方式可以验证证书是否是由真正的CA颁发的,以及证书的内容是否被篡改过。

udp有哪些优点,分别对应哪些场景呢?

UDP (User Datagram Protocol) 是一种无连接的协议,它的主要优点包括:
简单:UDP不需要建立和断开连接,也不需要进行复杂的错误检查和恢复,这使得UDP的实现相对简单。
高效:由于UDP不需要进行连接管理和错误恢复,因此它比TCP更加高效。
UDP常常用于那些不需要可靠传输,或者可以在应用层处理错误恢复的场景。例如:视频流传输、实时游戏、VoIP等。

udp包能装多少数据呢?

UDP数据报的大小是有限的。它的头部占用8字节,包括源端口、目标端口、长度和校验和。UDP数据报的长度字段是16位的,因此UDP数据报的最大大小是2^16 - 1 = 65535字节。减去8字节的头部,以及IP头部的最小大小(20字节),剩下的最大有效载荷是65507字节。

转发的时候真正的能一次性将支持的最大字节数的包转出去吗

实际上,虽然理论上UDP数据报的最大大小是65535字节,但在实际网络中,往往受到各种限制。例如,IP协议规定,如果一个数据包的大小超过MTU(最大传输单元),那么这个数据包就需要被分片,然后在接收端再重新组装。一般来说,以太网的MTU是1500字节,因此在以太网环境下,如果一个UDP数据报的大小超过了这个值,就可能需要被分片。但是,UDP是一个无连接的协议,它没有像TCP那样的重传机制,因此如果一个UDP数据报的某个分片丢失了,那么整个数据报都会被丢弃。所以,在实际应用中,我们通常会尽量避免发送过大的UDP数据报,以避免分片和可能的数据丢失。

是的,为了避免UDP数据报过大导致的分片和可能的数据丢失,一般来说,应用层需要负责控制每个UDP数据报的大小(也可以负责它的可靠性)。这是因为UDP本身是一个简单的、无连接的协议,它并没有提供任何关于拥塞控制、流量控制或者错误恢复的机制。因此,对于这些问题,通常需要在应用层进行处理。

在一些需要实时数据传输的应用中,比如视频会议或者在线游戏,UDP是一个非常常用的协议。在这些应用中,通常会通过一些策略来避免发送过大的UDP数据报。比如,可以通过调整视频编码的参数来控制每个视频帧的大小,或者只在每个UDP数据报中包含一部分的视频帧,以保证每个UDP数据报的大小不会超过MTU。当然,这样做可能会增加编程的复杂性,因为需要处理数据的分片和组装,但是通过这种方式可以避免网络层的数据报文分片,从而提高数据传输的效率和稳定性。

http如何跨域?

HTTP如何跨域:在HTTP中,跨域是由于浏览器的同源策略限制。但有一些常用的方式可以进行跨域:

  • JSONP(JSON with Padding):只能进行GET请求。
  • CORS(跨域资源共享):服务器设置响应头Access-Control-Allow-Origin允许来源进行访问,还可以通过Access-Control-Allow-Methods,Access-Control-Allow-Headers等设置允许的方法和头部。
  • 使用代理:例如设置Nginx进行反向代理(此时代理服务器必须和客户机同源,然后再由代理服务器设置完成跨域请求),或者在Node.js中设置HTTP代理。
  • 使用Websocket进行通信。
  • 使用服务器间通信或者存储共享等方式绕过浏览器。

websocket

websocket和http的关系

  1. WebSocket 和 HTTP 的关系:

    WebSocket 和 HTTP 都是通信协议,它们都基于 TCP/IP 协议。WebSocket 是独立的、创建在 TCP 上的协议。HTTP 和 WebSocket 都可以使用 URL Scheme 来定义地址,HTTP 使用 http 或 https,而 WebSocket 使用 ws 或 wss(对应于 HTTP 和 HTTPS 的加密连接)。

websocket是建立在http之上的吗

  1. WebSocket 是否建立在 HTTP 之上:

    WebSocket 不是建立在 HTTP 之上的,它是一个独立的协议。但是 WebSocket 握手使用的是 HTTP 协议,这是为了兼容现有的 HTTP 基础设施。

websocket和发布订阅机制的关系

  1. WebSocket 和发布订阅模式的关系:

    WebSocket 是一种全双工的通信协议,它允许服务器主动向客户端推送信息,客户端也可以主动向服务器发送信息,这样就使得它成为实现发布-订阅模式的一个很好的选择。在使用 WebSocket 进行实时通信时,常常会结合发布-订阅模式来设计。

websocket的建立流程

  1. WebSocket 的建立流程:

    • 客户端通过 HTTP 请求与 WebSocket 服务端协商建立连接。这个过程通常被称为“握手”(handshake)。如果服务器接受了连接请求,就会发回一个成功的 HTTP 响应,这个 HTTP 连接就升级成了 WebSocket 连接。
    • 握手过程中,客户端会发送一个 HTTP 请求到服务器,该请求包含一个 Upgrade: websocket 的头信息,表示尝试升级连接到 WebSocket。
    • 服务器在接收到这个请求并同意连接后,会返回一个包含 Upgrade: websocket 头的 HTTP 响应,这样,握手过程就完成了,客户端和服务器之间的通信就切换到了 WebSocket 协议。

以上这些都是 WebSocket 协议的基本内容。在实际应用中,你可能还需要根据需求和环境进行更深入的了解和研究。

TCP连接和释放

关于tcp的连接和释放,推荐看这篇文章理论经典:TCP协议的3次握手与4次挥手过程详解,有详细的流程

为什么需要三次握手,两次不行吗?

试想如果是用两次握手,则会出现下面这种情况:

如客户端发出连接请求,但因连接请求报文丢失而未收到确认,于是客户端再重传一次连接请求。后来收到了确认,建立了连接。数据传输完毕后,就释放了连接,客户端共发出了两个连接请求报文段,其中第一个丢失,第二个到达了服务端,但是第一个丢失的报文段只是在某些网络结点长时间滞留了,延误到连接释放以后的某个时间才到达服务端,此时服务端误认为客户端又发出一次新的连接请求,于是就向客户端发出确认报文段,同意建立连接,不采用三次握手,只要服务端发出确认,就建立新的连接了,此时客户端忽略服务端发来的确认,也不发送数据,则服务端一致等待客户端发送数据,浪费资源。

为什么第四次挥手后,客户端要等待2MSL时间才能释放客户端的资源?

1. TCP断开连接为什么要有四次挥手?

TCP是一种可靠的双向通信协议,所以每个方向都必须单独进行关闭。这个过程需要四步来确保双方都可以关闭他们的连接。前两次挥手是用来关闭初始的发送方的连接,后两次挥手是用来关闭另一方的连接。也就是说,发送“FIN”只是表示发送方不再发送数据,但是仍然可以接收数据;收到对方的“FIN”标志后才表示对方也不再发送数据,连接可以完全关闭。

2. TCP断开连接的最后一次挥手时,客户端和服务器为什么都要等待2MSL的时间?(可能面试官会问为什么客户端发完最后一个ACK给服务器后进入time_wait状态)

客户端在发送完最后一个ACK包后需要等待2MSL(Maximum Segment Lifetime,最大报文段生存时间)的时间,这主要有两个原因:

  • 确保最后一个ACK能够到达服务端。如果ACK丢失,服务端会重发FIN包,客户端再次发送ACK。

  • 避免“老的重复分组”在网络中滞留太久。在TCP连接关闭后的2MSL时间内,不允许同一源ip地址、目的ip地址、源端口、目的端口的连接建立,**这主要是为了防止老的连接的延迟数据包在新连接中被误认为是有效数据。**如果让客户端等待2MSL时间,则

举一个例子:

假设你有一个客户端和服务器之间的TCP连接,其源地址和端口为C1:1234,目的地址和端口为S1:80。在这个连接中,你发送了一个数据包P,但是由于网络延迟,P在网络中滞留了很久,没有立即到达服务器。然后你关闭了这个连接。

现在,你想要在同一个客户端和服务器之间开启一个新的连接,仍然使用C1:1234和S1:80。如果你在关闭旧连接后立即开启新连接,那么滞留在网络中的数据包P可能会到达服务器,被服务器误认为是新连接中的有效数据,这会导致数据混淆和错误。

为了防止这种情况,TCP规定在关闭连接后的2MSL时间内,不允许同一源地址、目的地址、源端口、目的端口的连接建立。这样,滞留在网络中的数据包P就有足够的时间在网络中消失,不会影响到新的连接。

所以2MSL是服务器和客户端都需要等待的吗?

是的,2MSL(Maximum Segment
Lifetime,最大报文段生存时间)是TCP连接在完全关闭前需要经过的时间,这段时间既适用于客户端,也适用于服务器。这是因为TCP连接是全双工的,也就是说,客户端和服务器两端都可以发送和接收数据。因此,无论是客户端还是服务器,都需要确保其发送的最后一个数据包(或者确认包)能够到达对端,并且需要等待足够的时间以便所有滞留在网络中的数据包都有机会到达对端或者被丢弃。这样,当新的连接在相同的端口和地址上建立时,就不会被这些“老的”数据包所影响。

3. MSL是多少

MSL的具体数值因系统和网络环境的不同而不同,但常见的数值为2分钟。这个值足够长,可以确保TCP的报文段在网络中的所有数据包都不再存在。然而,这个值在实际的网络环境中并不是固定的,可以根据实际的网络环境和需求进行设置。

4. 如果客户端的ACK丢失,那么服务端有超时机制,一定是小于MSL时间,所以会在这个时间内重传FIN,如果重传的FIN又丢失了呢?

如果服务端重发的FIN一直丢失,根据TCP的设计,服务器会尝试重发一定次数或者等待一段时间,如果仍然没有收到客户端的ACK,服务器会假设客户端已经接收到了FIN,并将连接视为关闭。虽然这可能会有一些资源没有被立即回收,但这个过程通常是自动的,不需要额外的干预。实际上,因为网络的可靠性,FIN包一直丢失的情况在现实中很少发生。

5. 服务端的第二次挥手到第三次挥手之间,服务端是不是还可以传输其他的数据给客户端?

是的,在服务器收到客户端的FIN报文并且回复ACK报文后,到发送自己的FIN报文这段时间,服务器是可以继续发送数据给客户端的。这是因为TCP是全双工的,一端发送FIN报文意味着“我已经没有数据要发送给你了”,并不影响另一端发送数据。

DDOS/DOS/SYN洪范攻击

三者之间的一些区别

1 DDOS为什么这么叫,它不是客户端拒绝做出第三次响应吗
2 和DOS有什么区别
3 和SYN攻击有什么区别

  1. DDoS(Distributed Denial of Service,分布式拒绝服务)攻击被这样称呼是因为这种攻击方式通常涉及到利用许多分散的系统(例如被感染的计算机或其他网络设备)发起大规模的攻击,以使目标系统无法提供正常的服务。DDoS攻击并不仅仅指拒绝做出第三次tcp响应,它是一类攻击方式的总称,包括SYN洪水攻击、UDP洪水攻击、ICMP洪水攻击等。

  2. DOS(Denial of Service,拒绝服务)攻击和DDoS攻击的主要区别在于攻击的发起者。DOS攻击通常由单个源发起,而DDoS攻击则由多个源(分布在不同的网络位置)发起。由于DDoS攻击的分散性和规模,它比DOS攻击更难防御。

  3. SYN洪水攻击是一种具体的DoS/DDoS攻击方式,它利用TCP的三次握手机制。在SYN洪水攻击中,攻击者会发送大量的SYN请求到服务器,但不会对服务器的SYN+ACK响应进行确认(即不发出第三次握手),从而导致大量半开连接占用服务器资源,使正常用户无法连接服务器。因此,SYN洪水攻击可以看作是一种特殊的DoS/DDoS攻击。

常见的防御 SYN 攻击的方法有如下几种:

缩短超时(SYN Timeout)时间
增加最大半连接数
过滤网关防护
SYN cookies技术

解释一下上面几种预防方法

  1. 缩短超时(SYN Timeout)时间:在这种方法中,服务器会缩短等待客户端完成TCP三次握手的超时时间。如果在这个缩短的时间内,客户端没有发出第三次握手(即ACK),服务器将关闭半开放的连接,释放资源。这样,服务器就可以更快地处理掉那些不完全的连接,从而有更多的资源处理新的连接请求。

  2. 增加最大半连接数:服务器可以通过提高其允许的最大半开连接数来防御SYN洪水攻击。这可以增加服务器处理大量半开连接的能力。但是,这个方法并不能完全解决问题,因为攻击者可能会通过不断增加SYN请求的数量来超过服务器的最大半开连接数。

  3. 过滤网关防护:在网络的边界处(例如防火墙或路由器)部署过滤网关可以帮助防御SYN洪水攻击。这种设备可以分析进入网络的流量,识别出可能的SYN洪水攻击,并阻止这些攻击流量进入内部网络。

  4. SYN cookies技术:SYN cookies是一种非常有效的防御SYN洪水攻击的技术。在使用SYN cookies技术的服务器中,当收到SYN请求时,服务器并不立即分配资源创建半开连接(半开连接也很耗费资源),而是计算一个cookie(一个加密的哈希值),并将这个cookie作为初始序列号(ISN)在SYN+ACK响应中发送回客户端。如果客户端是合法的,并且真的想要建立连接,那么在第三次握手时,它将会发送一个ACK,其确认号是之前的ISN加一。这时,服务器收到ACK后,可以通过cookie验证这个ACK是否合法,如果合法就创建连接,否则忽略。这样,对于合法的连接请求,资源只在真正建立连接时才分配,而对于攻击造成的SYN请求,服务器并不分配资源,从而有效地防御了SYN洪水攻击。

SYN cookies 的设计目的就是为了防御 SYN 洪水攻击。在这种攻击中,攻击者发送大量的 SYN 请求以尝试耗尽服务器资源,但他们并不完成 TCP 三次握手,因此从不发送 ACK 响应。

SYN cookies 技术的核心思想是,服务端在未真正分配资源之前不完全信任客户端。为了确认客户端的真实意图,服务端发送一个加密的哈希值(cookie)作为初始序列号 (ISN)。合法的客户端会基于这个 ISN 回应一个 ACK。

这里的服务器收到ACK后,如何通过cookie验证这个ACK是否合法

SYN cookies 技术背后的原理是在不完全创建连接的情况下验证客户端的合法性。具体的工作流程如下:

  1. 生成 Cookie:当服务器收到一个SYN请求时,它不会立刻为这个连接分配内存或其他资源,而是会基于客户端的IP地址、端口号、自己的IP地址和端口号以及一个密钥,通过一个哈希函数生成一个cookie。这个cookie然后作为初始序列号(Initial Sequence Number,ISN)发送给客户端。

  2. 客户端响应:如果客户端是合法的,它会将该ISN值加一后作为ACK响应的确认号发送给服务器。

  3. 验证Cookie:当服务器收到ACK时,它会再次根据之前的算法重新计算cookie,然后检查这个重新计算的值是否与客户端返回的确认号相匹配(具体地说,是否比客户端返回的确认号少一)。如果匹配,则这个SYN请求是合法的,服务器将完整地建立这个连接。

这种机制的关键在于cookie的生成算法是伪随机的,但在短时间内是可预测的。因此,只有合法的、知道了正确的ISN的客户端才可能返回正确的ACK确认号。这样,服务器就可以有效地在资源分配前筛选出恶意的SYN请求,从而避免资源被过度消耗。

需要注意的是,由于SYN cookies技术在初始握手阶段并没有真正地为连接分配资源,因此在使用这种技术时,某些TCP特性(如最大段大小)可能不会被正常地处理。这是这种防护机制的一个小缺点。

只有合法的、知道了正确的ISN的客户端才可能返回正确的ACK确认号。难道大量被伪造的客户端不知道ISN号吗,为什么

是的,你指出了一个重要的点。在SYN flood攻击中,攻击者发送大量的SYN请求,但大多数时候这些请求来自伪造的IP地址。这意味着攻击者可能没有真正地接收到SYN+ACK响应,因为响应会发送到伪造的IP地址,而不是攻击者的真实地址。因此,攻击者通常无法看到正确的ISN(因为它包含在SYN+ACK响应中)。

考虑以下步骤:

  1. 攻击者从伪造的IP地址发送SYN请求。
  2. 服务器接收到SYN请求并计算cookie,然后将其作为ISN发送在SYN+ACK响应中到伪造的IP地址。
  3. 由于IP地址是伪造的,因此攻击者可能永远不会看到这个SYN+ACK响应,因此也看不到正确的ISN。

如果攻击者不知道正确的ISN,那么他们就无法发送一个匹配的ACK,从而无法通过服务器的cookie验证。

但请注意,这种策略对于来源真实的SYN flood攻击可能不太有效,因为攻击者可以看到SYN+ACK响应并发送正确的ACK。不过,在实际情况中,大多数的SYN flood攻击都使用伪造的IP地址,因为这使得追踪攻击者变得更加困难。

SYN Flood主要消耗的是服务端的哪些资源呢

当遭受SYN flood攻击时,攻击者发送大量的伪造源地址的SYN请求,目的是耗尽服务器的相关资源,导致合法的用户无法与服务器建立连接。主要受到影响的资源包括:

  1. 半连接队列:当服务器接收到SYN请求时,它会在一个名为半连接(half-open)队列中创建一个条目来跟踪这个连接。这个队列有大小限制,当遭受SYN flood攻击时,这个队列很快就会被填满,从而使得合法的连接请求无法被跟踪。

  2. 内存:每个在半连接队列中的条目都需要一些内存来存储关于连接的信息。大量的伪造SYN请求会导致服务器为这些伪造连接分配大量的内存。

  3. CPU:处理伪造的SYN请求和发送SYN-ACK响应都需要CPU资源。当遭受大量的伪造SYN请求时,这会增加服务器的CPU负载。

  4. 带宽:攻击者发送大量的SYN请求会消耗网络带宽。此外,服务器响应这些请求也会消耗额外的带宽。在某些情况下,这可能导致网络拥塞。

  5. 文件描述符:每个新的连接请求都需要一个文件描述符。在UNIX和Linux系统中,每个进程都有一个最大文件描述符的限制。当这些描述符被耗尽时,服务器可能无法处理新的连接或执行其他与文件、套接字相关的操作。

  6. 其他系统资源:此外,还有一些其他的系统资源也可能受到影响,例如ARP缓存、路由表等。

为了抵御SYN flood攻击,可以采取多种策略,其中最著名的就是SYN cookies技术。这种技术允许服务器在不预分配大量资源的情况下处理SYN请求。

SYN机制总结

这其实是一种嗅探机制,跟DCL,三阶段分布式事务,hashcode+equals判断对象是否相等,很像;它们都是通过事先发送一些预检请求/命令进行检测工作,一般检测工作不会让服务器或者cpu消耗过多的资源

为什么没有SSL层没有SYN攻击

答:SSL/TLS 是应用于传输层(例如 TCP)之上的协议,它在应用层与传输层之间为通信提供加密和身份验证。SYN 攻击是针对传输层(特别是 TCP)的攻击,攻击者通过发送大量的 SYN 包,但从不完成三次握手过程来消耗服务器资源。

当开始一个 SSL/TLS 会话时,TCP 连接已经建立,三次握手已经完成。因此,SSL/TLS 本身不受 SYN 攻击影响。但是,它可能受到其它类型的攻击,如 SSL 握手洪水攻击,其中攻击者尝试使用大量的 SSL/TLS 握手来消耗服务器的计算资源

其中攻击者尝试使用大量的 SSL/TLS 握手来消耗服务器的计算资源,这里的握手是指ssl重放攻击嘛

当提到攻击者尝试使用大量的 SSL/TLS 握手来消耗服务器的计算资源时,我指的并不是重放攻击。我指的是攻击者尝试大量地与服务器建立新的 SSL/TLS 连接,从而触发大量的加密握手过程。SSL/TLS 握手涉及到的公钥加密和数字证书验证都是计算密集型的操作,大量的此类握手会占用大量的服务器资源,这可能导致合法的用户请求无法得到处理。这种攻击被称为 “SSL 握手洪水攻击”。

SSL的攻击说明攻击者使用的都是真实的IP地址对吧

在执行 SSL/TLS 攻击时,攻击者确实通常会使用真实的 IP 地址,因为他们要和服务器完成握手。但这并不意味着他们不能使用假的或伪造的 IP 地址。使用真实的 IP 地址确实使攻击更容易被追踪和定位,但是攻击者可能会使用僵尸网络或者其它方法来隐匿自己的真实位置。在网络安全中,很少有事情是确定的,攻击者常常使用各种技巧和策略来达到他们的目标。

SYN只能拦住tcp层以及应用层的洪水攻击,那IP层,数据链路层有没有这种攻击呢,采取的措施和这种相似嘛?

为什么没有SSL层没有SYN攻击
SSL/TLS 是应用于传输层(例如 TCP)之上的协议,它在应用层与传输层之间为通信提供加密和身份验证。SYN 攻击是针对传输层(特别是 TCP)的攻击,攻击者通过发送大量的 SYN 包,但从不完成三次握手过程来消耗服务器资源。

当开始一个 SSL/TLS 会话时,TCP 连接已经建立,三次握手已经完成。因此,SSL/TLS 本身不受 SYN 攻击影响。但是,它可能受到其它类型的攻击,如 SSL 握手洪水攻击,其中攻击者尝试使用大量的 SSL/TLS 握手来消耗服务器的计算资源。

IP层,数据链路层的攻击
IP 层攻击:

  • ICMP Flood (Ping Flood): 攻击者发送大量的 ICMP Echo (ping) 请求到目标,使其不停地进行回应。

  • IP Fragmentation Attack: 攻击者发送大量的片段化数据包给目标,使其耗费资源尝试重新组合这些数据包。
    数据链路层攻击:

  • MAC Flooding: 攻击者尝试填满交换机的 MAC 地址表,导致正常流量无法通过。

  • ARP Spoofing: 攻击者发送伪造的 ARP 消息到局域网,目的是将某些流量从它的正常路径重定向到攻击者。

对于这些攻击,应对措施因具体情况而异。一般来说,可以使用防火墙、入侵检测系统、流量限制、过滤等手段来防范。对于数据链路层的攻击,网络设备通常具有内建的安全机制和策略来进行抵御。

SYN注入攻击

TCP序列号预测攻击(有时也被称为SYN注入攻击)是一个相对复杂的攻击,需要对TCP协议有深入的了解。以下是该攻击的基本流程:

  1. 监视目标连接:首先,攻击者需要监听或观察两个目标之间的TCP连接。攻击者的目标通常是一对正在通信的机器,如用户和web服务器。

  2. 捕获SYN和SYN-ACK:当新的TCP连接开始时,会进行三次握手。在此过程中,客户端发送SYN包,服务器回复SYN-ACK包。攻击者捕获这两个包以获取它们的序列号。

  3. 预测序列号:基于捕获的序列号,攻击者尝试预测后续数据包的序列号。这需要知道TCP实现的特定细节和行为。

  4. 发送伪造的数据包:一旦攻击者确定了预测的序列号,他们就可以创建伪造的TCP数据包。这些数据包会看起来像它们来自合法的客户端或服务器,因为它们使用了预测的序列号。

  5. 劫持连接:由于伪造的数据包看起来像合法的数据包,所以它们可能会被接收并处理,导致合法的数据包被伪造的数据包替换。

  6. 防止合法的数据包到达目标:为了确保伪造的数据包被接受并处理,攻击者可能还需要确保合法的数据包不会到达目标。这可以通过DoS攻击或其他方法来实现,目的是让伪造的数据包在合法数据包之前或代替合法数据包到达。

需要注意的是,这种攻击依赖于能够预测或确定TCP序列号,这是TCP设计中的一个安全隐患。为了缓解这一问题,许多现代的TCP实现采用了随机化的序列号,使得这种攻击变得更加困难。

重放攻击?

重放攻击(Replay Attack),也叫再生攻击或重复播放攻击,是指攻击者重新发送或重复发送有效的数据传输,从而欺骗计算机系统进行未授权的操作。这种攻击主要发生在认证环节,其中攻击者尝试通过捕获、复制并重新发送有效的用户认证信息(如密码、token或密钥)以欺骗系统或网络。

以下是一些重放攻击的简单示例:

  1. 无线网络中的攻击: 如果一个攻击者可以在无线网络中捕获其他设备的认证握手,他们可以稍后再次使用这个握手来访问网络,即使原始设备已经断开连接。

  2. 网上支付: 攻击者截获了一个用户的在线支付交易,并在不久之后再次发送相同的交易,导致用户被多次计费。

  3. 登录凭据: 攻击者捕获了用户的登录令牌或密码,并用它来再次访问系统。

为了防御重放攻击,通常会使用以下策略:

  1. 时间戳: 为每次请求加入一个时间戳,并在服务器端验证这个时间戳来确保请求是新的并且在一个特定的时间窗口内。

  2. 序列号: 类似于时间戳,为每个消息提供一个独特的、递增的序列号,并在服务器端验证。

  3. 一次性令牌: 使用一种机制,如HOTP或TOTP,生成一次性的、短时效的凭证或令牌,以确保每次的登录请求都是独特的。

  4. 加密和完整性检查: 使用适当的加密和/或HMAC来确保数据的保密性和完整性,这样攻击者即使能截获数据也不能轻易地进行重放。

总的来说,重放攻击是一个涉及重新发送有效数据的威胁,但可以通过多种策略进行缓解和防护。

你觉得 HTTPS 能防止重放攻击吗?为什么可以,HTTP呢

HTTPS 主要基于 SSL/TLS 协议,它包括一系列设计来防止重放攻击的机制。下面来解释为什么 HTTPS 可以防止重放攻击,以及为什么 HTTP 不能做到这一点:

  1. HTTPS 和重放攻击的防护:

    • 随机数: 在 TLS 握手过程中,客户端和服务器都会生成随机数。这些随机数用于建立会话密钥。即使攻击者截获了握手数据并尝试重放,由于随机数的存在,他们无法正确地建立会话密钥。
    • 会话恢复与会话ID: 如果客户端和服务器决定重新使用之前的会话参数,他们会使用一个会话ID进行会话恢复。如果攻击者尝试使用截获的会话ID进行重放,他们会失败,因为服务器上与该ID关联的会话参数已经过期或无效。
    • 序列号: 在TLS中,每个记录都有一个序列号。如果服务器收到一个已经看过的序列号,它会拒绝该记录,从而阻止了重放攻击。
  2. HTTP 和重放攻击:

    • 无内置保护: HTTP 是一个明文协议,它没有为数据完整性、机密性或重放攻击提供内置的防护。因此,如果攻击者截获了一个 HTTP 请求,他们可以简单地再次发送它来进行重放攻击。
    • 不使用随机数或序列号: 与 HTTPS 不同,HTTP 没有在请求中包含随机数或序列号,这意味着重放攻击更加容易。

综上所述,HTTPS 提供了多种机制来防止重放攻击,而 HTTP 本身没有这样的保护。这也是许多网站和应用程序选择使用 HTTPS 而不是 HTTP 的原因之一,因为它为数据传输提供了额外的安全性。

黑客直接利用捕获的对称密钥完成重放不行嘛

你提出了一个很好的问题。确实,如果黑客成功捕获了对称密钥,那么他们可以解密捕获的数据,但仅仅拥有对称密钥并不能直接使他们成功进行重放攻击,原因如下:

  1. 短暂的会话密钥:在TLS/SSL中使用的对称密钥(会话密钥)通常只存在于一个会话期间。每次握手都会生成一个新的会话密钥。所以,即使攻击者获取了密钥,它也只对那一特定会话有效。如果攻击者想在新会话中进行重放攻击,他们需要获得新会话的密钥。

  2. 序列号和时效性:如前所述,TLS中的每个记录都有一个序列号。服务器会跟踪这些序列号以检测重放攻击。即使攻击者有对称密钥并尝试重放某个记录,服务器会因为序列号问题而拒绝这个记录。

  3. 完整性检查:TLS不仅仅是加密,它还提供了数据完整性检查。每个消息都伴随着一个校验值(如HMAC)。攻击者在不被检测的情况下无法修改这些消息。

  4. PFS(Perfect Forward Secrecy):许多现代的TLS配置使用完美的前向保密。这意味着,即使长期的私钥(或其他会话的密钥)被泄露,也不会威胁到其他会话的安全性。每个会话都有一个独特的、不依赖于其他会话的密钥。

当然,如果攻击者在会话期间捕获了密钥并立即尝试重放,理论上这是可能的,但他们只有很短的时间窗口可以这样做,并且需要在网络上有相当高的位置和能力。而且,现代的安全配置和措施(如上述的PFS)使得这种类型的攻击在实践中变得非常困难。

总的来说,仅仅拥有对称密钥并不足以进行成功的重放攻击,但这当然增加了攻击者的能力,这也强调了密钥管理和保护的重要性。

XSS、CSRF、SQL注入等安全问题

XSS(Cross-Site Scripting):

是一种注入攻击,攻击者通过在目标网站上注入恶意脚本,当其他用户访问该网站时,这些脚本会被执行。
防御方法:过滤用户输入、转义输出、使用内容安全策略(CSP)。

CSRF(Cross-Site Request Forgery):

攻击者诱使受害者的浏览器发送一个请求到目标网站(在受害者已经登录的情况下),这样攻击者可以伪造用户的行为。
防御方法:使用 anti-CSRF tokens,确保只有真正的用户能够执行敏感操作。

SQL注入:

攻击者在应用程序的输入字段中插入SQL代码。如果应用程序没有正确地处理这些输入,那么这些代码可能会被数据库服务器执行。
防御方法:使用参数化查询,避免直接拼接SQL语句。文章来源地址https://www.toymoban.com/news/detail-682402.html

到了这里,关于深度思考计算机网络面经之二的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [计算机网络]深度学习传输层TCP协议

    💓 博客主页:从零开始的-CodeNinja之路 ⏩ 收录专栏:深度学习传输层TCP协议 🎉欢迎大家点赞👍评论📝收藏⭐文章 TCP全称为\\\"传输控制协议(Transmission Control Protocol\\\"),要对数据的传输进行⼀个详细的控制; 端口号(Port):标识了⼀个主机上进行通信的不同的应用程序; 端口号范围划

    2024年02月20日
    浏览(115)
  • 计算机网络—TCP协议详解:协议构成、深度解析(1)

                                               🎬慕斯主页 : 修仙—别有洞天                                        ♈️ 今日夜电波: マリンブルーの庭園—ずっと真夜中でいいのに。                                                            0:34━━━

    2024年04月16日
    浏览(41)
  • 计算机网络—TCP协议详解:协议构成、深度解析(3)

                                               🎬慕斯主页 : 修仙—别有洞天                                        ♈️ 今日夜电波: マリンブルーの庭園—ずっと真夜中でいいのに。                                                            0:34━━━

    2024年04月29日
    浏览(50)
  • 计算机网络【Google的TCP BBR拥塞控制算法深度解析】

    Google的TCP BBR拥塞控制算法深度解析 宏观背景下的BBR 慢启动、拥塞避免、快速重传、快速恢复 : 说实话,这些机制完美适应了1980年代的网络特征, 低带宽 , 浅缓存队列 ,美好持续到了2000年代。 随后互联网大爆发,多媒体应用特别是图片,音视频类的应用促使带宽必须猛

    2024年02月03日
    浏览(49)
  • 【计算机网络八股】计算机网络(一)

    计算机网络体系可以大致分为一下三种,OSI七层模型、TCP/IP四层模型和五层模型。 OSI七层模型:大而全,但是比较复杂、而且是先有了理论模型,没有实际应用。 TCP/IP四层模型:是由实际应用发展总结出来的,从实质上讲,TCP/IP只有最上面三层,最下面一层没有什么具体内

    2024年02月11日
    浏览(47)
  • 计算机网络----计算机网络的基础

    目录 一.计算机网络的相关概念 二.计算机网络的功能 三.计算机网络的发展 四.计算机网络的组成 五.计算机网络的分类 六.计算机的性能指标 1.速率 2.带宽 3.吞吐量 4.时延 5.时延带宽积 6.往返时延RTT 7.利用率 七.计算机的分层结构 八.ISO/OSI参考模型 九.OSI参考模型与TCP/IP参考模

    2024年03月17日
    浏览(47)
  • 计算机网络——计算机网络体系结构

    1.1 概念 一般认为,计算机网络是一个将分散的,具有独立功能的计算机系统,通过通信设备与线路连接起来,由功能完善的软件实现资源共享的信息传递的系统,简而言之,计算机网络就是一些 互联的,自治的计算机系统的集合 1.2 组成 (1)从组成部分:由 硬件,软件,

    2024年02月15日
    浏览(52)
  • 第一章 计算机网络概述【计算机网络】

    2023-3-26 17:07:26 以下内容源自《【计算机网络】》 仅供学习交流使用 计算机网络 计算机网络(第8版) 谢希仁 编著 1.2.1 网络的网络 计算机网络〈简称为网络)由若干结点(node) R和连接这些结点的链路(link)组成。 1.2.2互联网基础结构发展的三个阶段 请读者注意以下两个意思相

    2024年02月13日
    浏览(48)
  • 计算机网络-笔记-第一章-计算机网络概述

    一、第一章——计算机网络概述 二、第二章——物理层 三、第三章——数据链路层 四、第四章——网络层 五、第五章——运输层 六、第六章——应用层 目录 一、第一章——计算机网络概述 1、因特网概述 (1)网络、互联网、因特网 (2)因特网发展的三个阶段 (3)因特

    2024年02月11日
    浏览(51)
  • 【计算机网络原理】第一章:计算机网络概述

    1、计算机网络的诞生 从技术范畴来看,计算机网络是计算机技术与通信技术相互融合的产物。 2、计算机网络的定义 计算机网络是互连的、自治的计算机的集合 1)自治: 互连的计算机系统彼此独立,不存在主从或者控制与被控制的关系。 2)互连: 利用通信链路连接相互独立

    2024年04月08日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包