【HDFS实战】HDFS联合(联邦)集群的发展史

这篇具有很好参考价值的文章主要介绍了【HDFS实战】HDFS联合(联邦)集群的发展史。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HDFS联合集群的发展史

HDFS原始架构

不管是之后的 NN与secondary namenode还是standby namenode其实实际运行的时候都是都可以抽象成以下的架构,因为active NN是唯一的。

【HDFS实战】HDFS联合(联邦)集群的发展史

HDFS拥有两个层

  • Namespace
    • 由目录、文件和块组成。
    • 它支持所有与命名空间相关的文件系统操作,例如创建、删除、修改和列出文件和目录。
  • Block Storage Service
    • 块管理(在Namenode中执行)
      • 通过处理注册和定期心跳来提供 Datanode 集群成员资格
      • 处理块报告并维护块的位置。
      • 支持块相关操作,如创建、删除、修改和获取块位置。
      • 管理副本放置、复制不足的块的块复制以及删除复制过度的块。
    • 存储 - 由 Datanodes 通过在本地文件系统上存储块并允许读/写访问来提供。

HDFS联合集群的目的是为了支持子集群进行横向联合。

方案一 HDFS Federation

之前的HDFS架构只允许整个集群有一个命名空间。 在原始架构中,由单个 Namenode 管理命名空间。 HDFS Federation 通过向 HDFS 添加对多个 Namenode/命名空间的支持来解决此限制。

多个namspaces/NNs

为了水平扩展名称服务,联合使用多个独立的Namenodes/namespaces。 Namenodes是联合的; Namenodes是独立的,不需要相互协调。 Datanodes 被所有 Namenodes 用作块的公共存储。 每个Datanode向集群中的所有Namenode注册。 数据节点定期发送心跳和块报告。 它们还处理来自Namenodes的命令。
【HDFS实战】HDFS联合(联邦)集群的发展史

Block Pool

HDFS Federation 引入了块池特性,每个块池有一个唯一的ID,块池与NN是一一对应的,等于一个子集群拥有一个块池。

块池是属于单个命名空间的一组块。块池的块分散存储在整个Datanodes中,每个块池都是独立管理的。 这允许命名空间为新块生成块 ID,而无需与其他命名空间协调。 Namenode故障不会阻止Datanode为集群中的其他Namenode提供服务。

命名空间及其块池一起称为命名空间卷。 它是一个独立的管理单位。 当删除Namenode/namespace时,Datanode上相应的块池也会被删除。 在集群升级期间,每个命名空间卷都会作为一个单元进行升级。

ClusterID 标识符用于标识集群中的所有节点。 当 Namenode 被格式化时,该标识符要么被提供,要么自动生成。 该 ID 应用于将其他 Namenode 格式化到集群中。

命名空间可扩展性 - 联合添加了命名空间水平扩展。 通过允许将更多 Namenode 添加到集群,大型部署或使用大量小文件的部署受益于命名空间扩展。

性能——文件系统吞吐量不受单个Namenode的限制。 向集群添加更多 Namenode 可扩展文件系统读/写吞吐量。

隔离 - 单个 Namenode 在多用户环境中不提供隔离。 例如,实验性应用程序可能会使 Namenode 过载并减慢生产关键应用程序的速度。 通过使用多个Namenode,可以将不同类别的应用程序和用户隔离到不同的命名空间。

缺陷:

  1. 不同NN之间是无法感知的。不是真正NN上的扩容,属于一个伪NN扩展。
  2. 引入一个新的NN之后,并没有直接降低原来NN的压力,类似新搭建一个集群,然后需要做手动迁移,分担压力。
  3. 客户端访问不同的NN,需要自行维护映射关系。

每个集群的 core-site.xml 都有一个配置属性,用于将默认文件系统设置为该集群的 namenode

这样的配置属性允许使用斜杠相对名称来解析相对于集群名称节点的路径。 例如,路径 /foo/bar 使用上述配置引用 hdfs://namenodeOfClusterX:port/foo/bar

<property>
  <name>fs.default.name</name>
  <value>hdfs://namenodeOfClusterX:port</value>
</property>

路径名的使用模式

  1. /foo/bar(最佳使用方式)

    • 等价于 hdfs://namenodeOfClusterX:port/foo/bar.
  2. hdfs://namenodeOfClusterX:port/foo/bar

    • 虽然这是一个有效的路径名,但最好使用/foo/bar,因为它允许应用程序及其数据在需要时透明地移动到另一个集群。
  3. hdfs://namenodeOfClusterY:port/foo/bar

    • 它是一个 URI,用于引用另一个集群(例如集群 Y)上的路径名。具体来说,将文件从集群 Y 复制到集群 Z 的命令如下所示:
     distcp hdfs://namenodeClusterY:port/pathSrc hdfs://namenodeClusterZ:port/pathDest
    
  4. webhdfs://namenodeClusterX:http_port/foo/barhftp://namenodeClusterX:http_port/foo/bar

    • 这些是分别用于通过WebHDFS文件系统和HFTP文件系统访问文件的文件系统URI。 请注意,WebHDFS 和 HFTP 使用名称节点的 HTTP 端口,但不使用 RPC 端口。
  5. http://namenodeClusterX:http_port/webhdfs/v1/foo/barhttp://proxyClusterX:http_port/foo/bar

    • 这些是分别用于通过 WebHDFS REST API 和 HDFS 代理访问文件的 HTTP URL。

假设有多个集群。 每个集群都有一个或多个NN。 每个NN都有自己的名称空间。 一个NN属于一个且仅一个集群。 同一集群中的NN共享该集群的物理存储。 跨集群的命名空间和以前一样是独立的。

操作根据存储需求决定集群中每个NN上存储的内容。 例如,他们可能将所有用户数据(/user/<username>)放在一个NN中,将所有提要数据(/data)放在另一个NN中,将所有项目(/projects)放在另一个NN中,等等。

方案二 ViewFs

ViewFs主要目的为了解决 HDFS Federation中多NN访问难的问题

查看文件系统 (ViewFs) 提供了一种管理多个HDFS子集群的方法。 ViewFs 类似于某些 Unix/Linux 系统中的客户端挂载表。 ViewFs 可用于创建个性化命名空间视图以及每个集群的映射。

使用 ViewFs 为每个集群提供一个全局命名空间

为了提供与旧版本的透明度(用户无感),使用ViewFs文件系统(即客户端挂载表)为每个集群创建独立的集群命名空间视图,这与旧版本中的命名空间类似。 客户端挂载表与 Unix 挂载表类似,它们使用旧的命名约定挂载新的命名空间卷。 下图显示了挂载四个命名空间卷 /user/data/projects /tmp 的挂载表:

【HDFS实战】HDFS联合(联邦)集群的发展史

ViewFs 实现了 Hadoop 文件系统接口,就像 HDFS 和本地文件系统一样。 从某种意义上说,它是一个普通的文件系统,它只允许链接到其他文件系统。 由于 ViewFs 实现了 Hadoop 文件系统接口,因此它可以透明地工作于 Hadoop 工具。 例如,所有 shell 命令都可以与 ViewFs 一起使用,就像与 HDFS 和本地文件系统一样。

<property>
  <name>fs.defaultFS</name>
  <value>viewfs://clusterX</value>
</property>

路径名使用模式

  1. /foo/bar(最佳使用方式)

    • 这相当于viewfs://clusterX/foo/bar。 如果在旧的非联合集群中使用这样的路径名,则到联邦的过渡是透明的。
  2. viewfs://clusterX/foo/bar

    • 虽然这是一个有效的路径名,但最好使用/foo/bar,因为它允许应用程序及其数据在需要时透明地移动到另一个集群。
  3. viewfs://clusterY/foo/bar

    • 它是一个 URI,用于引用另一个集群(例如集群 Y)上的路径名。具体来说,将文件从集群 Y 复制到集群 Z 的命令如下所示:
     distcp viewfs://clusterY/pathSrc viewfs://clusterZ/pathDest
    
  4. viewfs://clusterX-webhdfs/foo/bar and viewfs://clusterX-hftp/foo/bar

    • 这些分别是用于通过WebHDFS文件系统和HFTP文件系统访问文件的URI。
  5. http://namenodeClusterX:http_port/webhdfs/v1/foo/bar and http://proxyClusterX:http_port/foo/bar

    • 这些是分别用于通过 WebHDFS REST API 和 HDFS 代理访问文件的 HTTP URL。 请注意,它们与以前相同。

跨命名空间重命名路径名

在旧版本中,用户无法跨NN或集群重命名文件或目录。 此版本也是如此,但有一些额外的变化。 例如,在旧版本中,人们可以执行以下命令。

rename /user/joe/myStuff /data/foo/bar

如果 /user/data 实际上存储在集群内的不同NN上,这在联合集群中将不起作用。

方案三 HDFS Router-based Federation

HDFS Router-based Federation主要目的为了解决 HDFS Federation中多NN访问难的问题(取代ViewFS),实现客户端访问多个子集群之间的负载均衡,支持跨子集群均衡数据,让数据可以实现冷热子集群之间的迁移。

由于以下原因会限制NN的可扩展性:

  • 元数据的开销
  • DN的心跳检测
  • HDFS RPC客户端的数量

之前HDFS扩展方案:

  • 采用联合视图(ViewFS),问题在于如何维护子集群的分割(例如命令空间的分区),这迫使用户连接到多个子集群上管理文件夹和文件的分配。

基于路由的联合

在子集群之上建立了一个的软件层,用来负责联合的命名空间的工作。这个额外的联合层,使得用户访问的访问子集群是透明的,子集群独立管理自己的本身的块池,还支持子集群之间的数据均衡。

使用基于路由的联合集群的子集群可以是独立的HDFS集群,也可以是federation集群,还可以是混合集群(独立的HDFS集群+federation集群)。

联合层的核心组件:

  • Router :属于无状态服务,全局的NN接口,转发客户端的请求到子集群的NN中;与NN 心跳检测,管理NN信息到状态存储器,同时可以缓存Mount Table和子集群的状态信息。路由器与状态存储之间的通信将被缓存,用来提升性能。

  • State Store:在逻辑上是集中式,但是物理是分散式的。主要用户数据存储,包含远程挂载表(Mount Table)、子集群的负载和容量信息、路由的信息。 状态存储的后端是可插拔的。 我们利用后端实现的容错能力。 State Store中存储的主要信息及其实现:

    Membership:成员资格信息会对联合集群中的NN进行编码,路由器会定期检测这些子集群的NN并汇报信息。

    Mount Table:此表管理了文件夹/文件与子集群之间的映射。

【HDFS实战】HDFS联合(联邦)集群的发展史

最简单的部署,在NN的服务器上部署Router,一个NN对应一个Router。

联合层需要满足可扩展性,高可用性,和容错性。

路由器的故障容错

由于路由器是无状态的,那么也就是每个路由器的权重应该是一样的,当其中一个路由器不可用,其他路由器可以接替它继续服务。hdfs客户端在联合集群中配置时,需要将所有的路由器作为连接断点,来实现路由器的HA。

状态存储不可用

如果状态存储不可用,或者路由器连接不到对应的状态存储,则路由器会进入安全模式,将不处理任何请求。对于客户端来说,会把安全模式的路由器当做备用NN,然后尝试连接其他路由器。可以通过以下手动命令控制安全模式的路由器。可以将状态存储存放到ZK上,来保证高可用。

$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -safemode enter | leave | get

NN心跳的高可用

多个路由器会监听同一个NN,并将信息心跳传至状态存储。当路由器发生故障,导致状态存储的NN信息的冲突,会由每一个路由器通过仲裁来决定。投票选主?

不可用的NN

如果路由器无法与子集群的activeNN进行通信,会尝试联系备用NN,若NN都不可用,会报错。

过期的NN

如果NN的心跳检测出现过期,那么监控路由器会将此NN识别为过期状态的NN,在NN恢复心跳检测之前,所有的请求将不会发给过期NN。若NN心跳恢复了合理时间区间,Router会将NN的过期状态变更掉。

常用命令

启动与关闭

$ $HADOOP_PREFIX/bin/hdfs --daemon start dfsrouter
$ $HADOOP_PREFIX/bin/hdfs --daemon stop dfsrouter

远程挂载表操作

# 将目录/tmp 挂载到子集群ns1的 /tmp上
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -add /tmp ns1 /tmp
# 将目录/data/app1 挂载到子集群ns2的 /data/app1上
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -add /data/app1 ns2 /data/app1
# 将目录/data/app2 挂载到子集群ns3的 /data/app2上
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -add /data/app2 ns3 /data/app2
# 删除目录/data/app2
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -rm /data/app2
# 查询所有的挂载目录信息
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -ls
# 挂载只读文件夹
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -add /readonly ns1 / -readonly
# 设置挂载的权限(用户 用户组 权限编码)
[hdfs]$ $HADOOP_HOME/bin/hdfs dfsrouteradmin -add /tmp ns1 /tmp -owner root -group supergroup -mode 0755

常用配置

路由的配置增加在hdfs-site.xml

RPC server

RPC 服务器接收来自客户端的连接。

Property Default Description
dfs.federation.router.default.nameserviceId 要监视的默认子集群的名称服务标识符。
dfs.federation.router.rpc.enable true If true, 路由器中处理客户端请求的 RPC 服务已启用。
dfs.federation.router.rpc-address 0.0.0.0:8888 处理所有客户端请求的 RPC 地址。
dfs.federation.router.rpc-bind-host 0.0.0.0 RPC 服务器将绑定到的实际地址。
dfs.federation.router.handler.count 10 路由器处理来自客户端的 RPC 请求的服务器线程数。
dfs.federation.router.handler.queue.size 100 处理 RPC 客户端请求的处理程序数量的队列大小。
dfs.federation.router.reader.count 1 路由器处理 RPC 客户端请求的reader数量。
dfs.federation.router.reader.queue.size 100 路由器处理 RPC 客户端请求的读取器数量的队列大小。
Connection to the Namenodes

Router 将客户端请求转发到 NameNode。 它使用连接池来减少创建连接的延迟。

Property Default Description
dfs.federation.router.connection.pool-size 1 从路由器到NN节点的连接池的大小
dfs.federation.router.connection.clean.ms 10000 检查连接池是否应删除未使用的连接的时间间隔(以毫秒为单位)
dfs.federation.router.connection.pool.clean.ms 60000 检查连接管理器是否应删除未使用的连接池的时间间隔(以毫秒为单位)。
Admin server

管理挂载表的管理服务器。

Property Default Description
dfs.federation.router.admin.enable true If true, 启用了路由器中用于处理客户端请求的 RPC 管理服务。
dfs.federation.router.admin-address 0.0.0.0:8111 处理管理请求的 RPC 地址。
dfs.federation.router.admin-bind-host 0.0.0.0 RPC 管理服务器将绑定到的实际地址。
dfs.federation.router.admin.handler.count 1 路由器处理来自管理员的 RPC 请求的服务器线程数。
HTTP Server

HTTP 服务器为客户端提供 Web UI 和 HDFS REST 接口 (WebHDFS)。 默认 URL 为http://router_host:50071

Property Default Description
dfs.federation.router.http.enable true If true, 路由器中处理客户端请求的 HTTP 服务已启用。
dfs.federation.router.http-address 0.0.0.0:50071 处理对路由器的 Web 请求的 HTTP 地址。
dfs.federation.router.http-bind-host 0.0.0.0 HTTP 服务器将绑定到的实际地址。
dfs.federation.router.https-address 0.0.0.0:50072 处理对路由器的 Web 请求的 HTTPS 地址。
dfs.federation.router.https-bind-host 0.0.0.0 HTTPS 服务器将绑定到的实际地址。
State Store

与状态存储的连接以及路由器的内部缓存。

Property Default Description
dfs.federation.router.store.enable true 如果为true,则路由器连接到状态存储。
dfs.federation.router.store.serializer org.apache.hadoop.hdfs.server.federation.store.driver.impl.StateStoreSerializerPBImpl 用于序列化状态存储记录的类。
dfs.federation.router.store.driver.class org.apache.hadoop.hdfs.server.federation.store.driver.impl.StateStoreZooKeeperImpl 实现状态存储的类
dfs.federation.router.store.connection.test 60000 检查状态存储连接的频率(以毫秒为单位)。
dfs.federation.router.cache.ttl 60000 刷新状态存储缓存的频率(以毫秒为单位)。
dfs.federation.router.store.membership.expiration 300000 成员资格记录的到期时间(以毫秒为单位)。
Routing

将客户端请求转发到正确的子集群。

Property Default Description
dfs.federation.router.file.resolver.client.class org.apache.hadoop.hdfs.server.federation.resolver.MountTableResolver 将文件解析到子集群的类。
dfs.federation.router.namenode.resolver.client.class org.apache.hadoop.hdfs.server.federation.resolver.MembershipNamenodeResolver 用于解析子集群的NN节点的类。
Namenode monitoring

监视子集群中的NN节点以转发客户端请求。

Property Default Description
dfs.federation.router.heartbeat.enable true 如果为“true”,则路由器会向状态存储中发送心跳。
dfs.federation.router.heartbeat.interval 5000 路由器应以毫秒为单位向状态存储发送心跳的频率。
dfs.federation.router.monitor.namenode 要监视和检测信号的NN节点的标识符。
dfs.federation.router.monitor.localnamenode.enable true 如果为“true”,则路由器应监视本地计算机中的NN节点。

注意:如果启用*dfs.federation.router.monitor.localnamenode.enable,建议配置dfs.nameservice.id。 这将允许路由器直接找到本地节点。 否则,它将通过将namenode RPC地址与本地节点地址进行匹配来找到nameservice Id。 如果匹配多个地址,路由器将无法启动。 另外,如果本地节点是HA模式,建议配置dfs.ha.namenode.id*。

版本

HADOOP-V2

版本号 主要变化
HDFS 2.9.0 基于 HDFS 路由器的联合添加了一个 RPC 路由层,提供多个 HDFS 命名空间的联合视图。 这与现有的 ViewFS 和 HDFS 联合功能类似,只不过挂载表由路由层在服务器端而不是客户端进行管理。 这简化了现有 HDFS 客户端对联合集群的访问。
HDFS 2.9.1 1.将默认状态存储从本地文件更改为 ZooKeeper。 这将需要配置额外的 zk 地址。
2.挂载表支持ACL,用户将无法修改自己的条目(我们假设这些旧的(之前没有权限)挂载表的所有者:超级用户,组:超级组,权限:755作为默认权限)。 修复方法是以超级用户身份登录来修改这些挂载表条目。
HDFS 2.10.0 1.将默认状态存储从本地文件更改为 ZooKeeper。 这将需要配置额外的 zk 地址。
2.挂载表支持ACL,用户将无法修改自己的条目(我们假设这些旧的(之前没有权限)挂载表的所有者:超级用户,组:超级组,权限:755作为默认权限)。 修复方法是以超级用户身份登录来修改这些挂载表条目。
3.联合在挂载表级别支持和控制全局配额。
在联合环境中,一个文件夹可以分布在多个子集群中。 路由器聚合从这些子集群查询的配额,并将其用于配额验证。

HADOOP-V3

版本号 主要变化
HDFS 3.0.0 基于 HDFS 路由器的联合添加了一个 RPC 路由层,提供多个 HDFS 命名空间的联合视图。 这与现有的 ViewFS 和 HDFS 联合功能类似,只不过挂载表由路由层在服务器端而不是客户端进行管理。 这简化了现有 HDFS 客户端对联合集群的访问。
HDFS 3.0.3 1.将默认状态存储从本地文件更改为 ZooKeeper。 这将需要配置额外的 zk 地址。 2.挂载表支持ACL,用户将无法修改自己的条目(我们假设这些旧的(之前没有权限)挂载表的所有者:超级用户,组:超级组,权限:755作为默认权限)。 修复方法是以超级用户身份登录来修改这些挂载表条目。
HDFS 3.1.0 1.将默认状态存储从本地文件更改为 ZooKeeper。 这将需要配置额外的 zk 地址。 2.挂载表支持ACL,用户将无法修改自己的条目(我们假设这些旧的(之前没有权限)挂载表的所有者:超级用户,组:超级组,权限:755作为默认权限)。 修复方法是以超级用户身份登录来修改这些挂载表条目。

相关issues

https://issues.apache.org/jira/browse/HDFS-10467文章来源地址https://www.toymoban.com/news/detail-513400.html

到了这里,关于【HDFS实战】HDFS联合(联邦)集群的发展史的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • C++发展史

    目录 什么是C++ C++的发展史 C++的重要性 C++在实际工作中的应用 “21天教你学会C++” 先看看祖师爷,记得多拜拜🤭 C语言是结构化和模块化的语言,适合处理较小规模的程序。对于复杂的问题,规模较大的 程序,需要高度的抽象和建模时,C语言则不合适。为了解决软件危机,

    2024年01月18日
    浏览(53)
  • 大语言模型发展史

    2023年可谓是生成式AI元年,大语言模型从崭露头角到锋芒毕露,已然成为人工智能领域的关键推动力。这一创新性的技术不仅在自然语言处理领域崭露头角,更深刻地改变了我们对人机交互、智能助手和信息处理的认知。那么大语言模型的发展历程如何呢?由我来剖析其演进

    2024年02月03日
    浏览(57)
  • 大数据技术发展史

    大数据(Big Data)是指在传统数据处理方法难以处理的情况下,需要新的处理模式来具有更强的决策力、洞察发现力和过程优化能力的海量、高增长率和多样化的信息资产。大数据的特征通常被概括为“4V”,即: Volume(容量) :大数据的规模非常庞大,通常以 TB(太字节)

    2024年01月19日
    浏览(50)
  • Linux发展史

     1、Linux前身-Unix诞生 1965年,贝尔实验室Bell、麻省理工学院MIT、奇异公司GE,发起了Multics计划,让主机可以达成300个终端。后来因为资金不足、计划进度等问题,退出了研究。贝尔研究室退出了Multics计划。1968年Multics 项目到后期由于开发进度不是很好,MIT 和Bell实验室相继离

    2024年02月05日
    浏览(55)
  • 细说元宇宙发展史

    元宇宙作为时下一个热门的产业,凭借着强大的潜力,吸引了全球范围内大量企业的参与。但事实上,元宇宙这一概念,并非是一个全新的名词,它早在数十年前就已经出现在我们的视野当中,那么,就让我们来探索元宇宙的这一段发展时吧,进一步深度了解什么是元宇宙。

    2023年04月10日
    浏览(45)
  • Unity发展史

    Unity历史 2004年诞生于丹麦阿莫斯特 2005年06月:Unity 1.0发布 2006年06月:Unity 1.5发布 2007年10月:Unity 2.0发布,增加地形引擎、实时动态阴影,支持DirectX 9,并具有内置的网络多人联机功能。 2008年06月:Unity 支持Will 2008年10月:Unity 支持iphone 2009年03月:Unity 2.5发布,增加对w、

    2024年02月16日
    浏览(47)
  • unity简介和发展史

    Unity是一款由Unity Technologies公司研发的跨平台2D/3D游戏引擎。它以交互的图型化开发环境为首要方式,编译器运行在Windows 和Mac OS X下,可发布游戏至Windows、Wii、OSX、iOS或HTML5等众多平台。此外,Unity 还是被广泛用于建筑可视化、实时三维动画等类型互动内容的综合型创作工具

    2023年04月10日
    浏览(40)
  • 甘特图的发展史

    目录 背景: 过程: 总结: 1910年代初为了管理工程项目的进度而创造了甘特图。 1917年,美国工程师亨利·甘特(Henry Laurence Gantt)首次提出了甘特图的概念。他是一位工程师和管理学家,设计了一种图表,用于显示进度成产仅度和任务分配。 甘特图是一种项目管理工具,也叫甘特

    2024年02月16日
    浏览(41)
  • 前端构建(打包)工具发展史

    大多同学的前端学习路线:三件套+框架+慢慢延伸到其他,在这个过程中,有一个词出现的频率很高:webpack 。 作为一个很出名的前端构建工具我们在网上随便一搜,就会有各种教程:loader plugin entry吧啦吧啦。 但是为什么会有它,为什么我们离不开它呢? 如何理解“构建工

    2024年02月14日
    浏览(41)
  • DevOps的发展史了解

    DevOps的历史发展史可以追溯到2000年代初期,当时软件开发行业开始意识到,软件开发和IT运维之间的问题已经成为阻碍软件开发速度和效率的重要因素。在此之前,软件开发和IT运维是两个相对独立的过程,开发人员开发软件并将其交付给运维团队,运维团队负责安装、配置

    2024年02月04日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包