深度探讨 Golang 中并发发送 HTTP 请求的最佳技术

这篇具有很好参考价值的文章主要介绍了深度探讨 Golang 中并发发送 HTTP 请求的最佳技术。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  • 💂 个人网站:【 海拥】【神级代码资源网站】【办公神器】
  • 🤟 基于Web端打造的:👉轻量化工具创作平台
  • 💅 想寻找共同学习交流的小伙伴,请点击【全栈技术交流群】

深度探讨 Golang 中并发发送 HTTP 请求的最佳技术,golang,http,开发语言

在 Golang 领域,并发发送 HTTP 请求是优化 Web 应用程序的一项重要技能。本文探讨了实现此目的的各种方法,从基本的 goroutine 到涉及通道和sync.WaitGroup 的高级技术。我们将深入研究并发环境中性能和错误处理的最佳实践,为你提供提高 Go 应用程序速度和可靠性的策略。让我们深入探讨 Golang 中并发 HTTP 请求的世界!

使用 Goroutines 的基本方法

当谈到在 Golang 中实现并发时,最直接的方法是使用 goroutine。这些是 Go 中并发的构建块,提供了一种简单而强大的并发执行函数的方法。

Goroutine 入门

要启动一个 goroutine,只需在函数调用前加上go关键字即可。这会将函数作为 goroutine 启动,从而允许主程序继续独立运行。这就像开始一项任务并继续前进而不等待它完成。

例如,考虑发送 HTTP 请求的场景。通常,你会调用类似 的函数sendRequest(),并且你的程序将等待该函数完成。使用 goroutine,你可以同时执行此操作:

go sendRequest("http://example.com")

处理多个请求

假设你有一个 URL 列表,并且需要向每个 URL 发送一个 HTTP 请求。如果没有 goroutine,你的程序将一个接一个地发送这些请求,这非常耗时。使用 goroutine,你几乎可以同时发送它们:

urls := []string{"http://example.com", "http://another.com", ...}  
for _, url := range urls {  
go sendRequest(url)  
}

这个循环为每个 URL 启动一个新的 goroutine,大大减少了程序发送所有请求所需的时间。

并发 HTTP 请求的方法

在本节中,我们将深入研究在 Go 中并发处理 HTTP 请求的各种方法。每种方法都有其独特的特点,了解这些可以帮助你选择适合特定需求的正确方法。

我们使用 insrequester 包(开源请求程序)来处理本文中提到的 HTTP请求

基本 Goroutine

在 Go 中并发发送 HTTP 请求的最简单方法是使用 goroutine。Goroutines 是由 Go 运行时管理的轻量级线程。这是一个基本示例:

requester := insrequester.NewRequester().Load()  
  
urls := []string{"http://example.com", "http://example.org", "http://example.net"}  
for _, url := range urls {  
go requester.Get(insrequester.RequestEntity{Endpoint: url})  
}  
  
time.Sleep(2 * time.Second) // 等待 goroutine 完成

这种方法很简单,但一旦启动就缺乏对 goroutine 的控制。通过这种方式无法获取Get方法的返回值。你需要睡眠大约一段时间来等待所有 goroutine。即使你调用 sleep,你可能仍然不确定它们是否完成。

WaitGroup

为了改进基本的 goroutine,sync.WaitGroup可用于更好的同步。它等待 goroutine 集合完成执行:

requester := insrequester.NewRequester().Load()  
wg := sync.WaitGroup{}  
  
urls := []string{"http://example.com", "http://example.org", "http://example.net"}  
wg.Add(len(urls))  
  
for _, url := range urls {  
go requester.Get(insrequester.RequestEntity{Endpoint: url})  
}  
  
wg.Wait() //等待所有要完成的 goroutine

这确保了 main 函数等待所有 HTTP 请求完成。

Channels

Channels 是 Go 中用于 goroutine 之间通信的强大功能。它们可用于从多个 HTTP 请求收集数据:

requester := insrequester.NewRequester().Load()  
  
urls := []string{"http://example.com", "http://example.org", "http://example.net"}  
ch := make(chan string, len(urls))  
  
for _, url := range urls {  
go func() {  
res, _ := requester.Get(insrequester.RequestEntity{Endpoint: url})  
ch <- fmt.Sprintf("%s: %d", url, res.StatusCode)  
}()  
}  
  
for range urls {  
response := <-ch  
fmt.Println(response)  
}

通道不仅可以同步 goroutine,还可以促进它们之间的数据传递。

Worker Pools

Worker Pool 是一种模式,其中创建固定数量的工作人员(goroutines)来处理可变数量的任务。这有助于限制并发 HTTP 请求的数量,从而防止资源耗尽。

以下是在 Go 中实现 Worker Pool 的方法:

// 定义 Job 结构体,包含一个 URL 字段
type Job struct {
	URL string
}

// worker 函数用于处理作业,接收请求者、作业通道、结果通道和等待组作为参数
func worker(requester *insrequester.Request, jobs <-chan Job, results chan<- *http.Response, wg *sync.WaitGroup) {
	for job := range jobs {
		// 使用请求者获取 URL 对应的响应
		res, _ := requester.Get(insrequester.RequestEntity{Endpoint: job.URL})
		// 将结果发送到结果通道,并减少等待组计数
		results <- res
		wg.Done()
	}
}

func main() {
	// 创建并加载请求者
	requester := insrequester.NewRequester().Load()

	// 定义要处理的 URL 列表
	urls := []string{"http://example.com", "http://example.org", "http://example.net"}
	// 定义工作池中的工作者数量
	numWorkers := 2

	// 创建作业通道和结果通道
	jobs := make(chan Job, len(urls))
	results := make(chan *http.Response, len(urls))
	var wg sync.WaitGroup

	// 启动工作者
	for w := 0; w < numWorkers; w++ {
		go worker(requester, jobs, results, &wg)
	}

	// 将作业发送到工作者池
	wg.Add(len(urls))
	for _, url := range urls {
		jobs <- Job{URL: url}
	}
	close(jobs)
	wg.Wait()

	// 收集结果并输出
	for i := 0; i < len(urls); i++ {
		fmt.Println(<-results)
	}
}

使用工作池可以让你有效地管理大量并发 HTTP 请求。它是一个可扩展的解决方案,可以根据工作负载和系统容量进行调整,从而优化资源利用率并提高整体性能。

使用通道限制 Goroutine

该方法使用通道创建类似信号量的机制来限制并发 goroutine 的数量。它在你需要限制 HTTP 请求以避免服务器不堪重负或达到速率限制的情况下非常有效。

以下是实现它的方法:

// 创建请求者并加载配置
requester := insrequester.NewRequester().Load()

// 定义要处理的 URL 列表
urls := []string{"http://example.com", "http://example.org", "http://example.net"}
maxConcurrency := 2 // 限制并发请求的数量

// 创建一个用于限制并发请求的通道
limiter := make(chan struct{}, maxConcurrency)

// 遍历 URL 列表
for _, url := range urls {
    limiter <- struct{}{} // 获取一个令牌。在这里等待令牌从限制器释放
    go func(url string) {
        defer func() { <-limiter }() // 释放令牌
        // 使用请求者进行 POST 请求
        requester.Post(insrequester.RequestEntity{Endpoint: url})
    }(url)
}

// 等待所有 goroutine 完成
for i := 0; i < cap(limiter); i++ {
    limiter <- struct{}{}
}

在这种情况下使用延迟至关重要。如果将 <-limiter语句放在 Post 方法之后,并且 Post 方法触发恐慌或类似异常,则 <-limiter行将不会被执行。这可能会导致无限等待,因为信号量令牌永远不会被释放,最终导致超时问题。

使用信号量限制 Goroutines

sync/semaphore 包提供了一种干净有效的方法来限制并发运行的 goroutine 数量。当你想要更系统地管理资源分配时,此方法特别有用。

// 创建请求者并加载配置
requester := insrequester.NewRequester().Load()

// 定义要处理的 URL 列表
urls := []string{"http://example.com", "http://example.org", "http://example.net"}
maxConcurrency := int64(2) // 设置最大并发请求数量

// 创建一个带权重的信号量
sem := semaphore.NewWeighted(maxConcurrency)
ctx := context.Background()

// 遍历 URL 列表
for _, url := range urls {
    // 在启动 goroutine 前获取信号量权重
    if err := sem.Acquire(ctx, 1); err != nil {
       fmt.Printf("无法获取信号量:%v\n", err)
       continue
    }

    go func(url string) {
       defer sem.Release(1) // 在完成时释放信号量权重
       // 使用请求者获取 URL 对应的响应
       res, _ := requester.Get(insrequester.RequestEntity{Endpoint: url})
       fmt.Printf("%s: %d\n", url, res.StatusCode)
    }(url)
}

// 等待所有 goroutine 释放它们的信号量权重
if err := sem.Acquire(ctx, maxConcurrency); err != nil {
    fmt.Printf("等待时无法获取信号量:%v\n", err)
}

与手动管理通道相比,这种使用信号量包的方法提供了一种更加结构化和可读的并发处理方式。当处理复杂的同步要求或需要更精细地控制并发级别时,它特别有用。

那么,最好的方法是什么?

在探索了 Go 中处理并发 HTTP 请求的各种方法之后,问题出现了:最好的方法是什么?正如软件工程中经常出现的情况一样,答案取决于应用程序的具体要求和约束。让我们考虑确定最合适方法的关键因素:

评估你的需求

  • 请求规模:如果你正在处理大量请求,工作池或基于信号量的方法可以更好地控制资源使用。
  • 错误处理:如果强大的错误处理至关重要,那么使用通道或信号量包可以提供更结构化的错误管理。
  • 速率限制:对于需要遵守速率限制的应用程序,使用通道或信号量包限制 goroutine 可能是有效的。
  • 复杂性和可维护性:考虑每种方法的复杂性。虽然渠道提供了更多控制,但它们也增加了复杂性。另一方面,信号量包提供了更直接的解决方案。

错误处理

由于 Go 中并发执行的性质,goroutines 中的错误处理是一个棘手的话题。由于 goroutine 独立运行,管理和传播错误可能具有挑战性,但对于构​​建健壮的应用程序至关重要。以下是一些有效处理并发 Go 程序中错误的策略:

集中误差通道

一种常见的方法是使用集中式错误通道,所有 goroutine 都可以通过该通道发送错误。然后,主 goroutine 可以监听该通道并采取适当的操作。

func worker(errChan chan<- error) {
    // 执行任务
    if err := doTask(); err != nil {
        errChan <- err // 将任何错误发送到错误通道
    }
}

func main() {
    errChan := make(chan error, 1) // 用于存储错误的缓冲通道

    go worker(errChan)

    if err := <-errChan; err != nil {
        // 处理错误
        log.Printf("发生错误:%v", err)
    }
}

或者你可以在不同的 goroutine 中监听 errChan。

func worker(errChan chan<- error, job Job) {
 // 执行任务
 if err := doTask(job); err != nil {
  errChan <- err // 将任何错误发送到错误通道
 }
}

func listenErrors(done chan struct{}, errChan <-chan error) {
 for {
  select {
  case err := <-errChan:
   // 处理错误
  case <-done:
   return
  }
 }
}

func main() {
 errChan := make(chan error, 1000) // 存储错误的通道
 done := make(chan struct{})       // 用于通知 goroutine 停止的通道

 go listenErrors(done, errChan)
 
 for _, job := range jobs {
   go worker(errChan, job)
 }

 // 等待所有 goroutine 完成(具体方式需要根据代码的实际情况进行实现)
 done <- struct{}{} // 通知 goroutine 停止监听错误
}

Error Group

golang.org/x/sync/errgroup 包提供了一种便捷的方法来对多个 goroutine 进行分组并处理它们产生的任何错误。errgroup.Group确保一旦任何 goroutine 发生错误,所有后续操作都将被取消。

import "golang.org/x/sync/errgroup"

func main() {
    g, ctx := errgroup.WithContext(context.Background())

    urls := []string{"http://example.com", "http://example.org"}
    for _, url := range urls {
        // 为每个 URL 启动一个 goroutine
        g.Go(func() error {
            // 替换为实际的 HTTP 请求逻辑
            _, err := fetchURL(ctx, url)
            return err
        })
    }

    // 等待所有请求完成
    if err := g.Wait(); err != nil {
        log.Printf("发生错误:%v", err)
    }
}

这种方法简化了错误处理,特别是在处理大量 goroutine 时。

包装 Goroutine

另一种策略是将每个 goroutine 包装在一个处理其错误的函数中。这种封装可以包括从恐慌或其他错误管理逻辑中恢复。

func work() error {
  // 进行一些工作
  return err
}

func main() {
 go func() {
   err := work()
   if err != nil {
     // 处理错误
   }
 }()

 // 等待工作完成的某种方式
}

综上所述,Go 并发编程中错误处理策略的选择取决于应用程序的具体要求和上下文。无论是通过集中式错误通道、专用错误处理 goroutine、使用错误组,还是将 goroutine 包装在错误管理函数中,每种方法都有自己的优点和权衡。

总结

总之,本文探讨了在 Golang 中并发发送 HTTP 请求的各种方法,这是优化 Web 应用程序的一项关键技能。我们已经讨论了基本的 goroutine、sync.WaitGroup、通道、工作池以及限制 goroutine 的方法。每种方法都有其独特的特点,可以根据特定的应用要求进行选择。

此外,本文还强调了并发 Go 程序中错误处理的重要性。管理并发环境中的错误可能具有挑战性,但对于构建健壮的应用程序至关重要。已经讨论了使用集中式错误通道、errgroup 包或使用错误处理逻辑包装 goroutine 等策略来帮助开发人员有效地处理错误。

最终,在 Go 中处理并发 HTTP 请求的最佳方法的选择取决于请求规模、错误处理要求、速率限制以及代码的整体复杂性和可维护性等因素。开发人员在应用程序中实现并发功能时应仔细考虑这些因素。

⭐️ 好书推荐

《Go专家编程(第2版)》

深度探讨 Golang 中并发发送 HTTP 请求的最佳技术,golang,http,开发语言

【内容简介】

本书深入地讲解了Go语言常见特性的内部机制和实现方式,大部分内容源自对Go源码的分析,并从中提炼出实现原理。通过阅读本书,读者可以快速、轻松地了解Go语言的内部运作机制。

本书首先介绍常见数据结构及控制结构的实现原理,包括管道、切片、Hash表、select 和 for-range 等,这部分内容大都以几个精心准备的测验题目开头,每个测验题目均对应一个知识点,读者借此可以测验自身对该知识点的掌握程度。接着介绍了Go语言最核心的概念,包括协程的概念、协程调度模型、协程调度策略,以及内存分配和垃圾回收相关的内容。本书还介绍了测试、泛型、依赖管理等比较实用的特性。最后结合笔者的见闻,整理了一些发生在真实项目中的编程陷阱。

📚 京东购买链接:《Go专家编程(第2版)》文章来源地址https://www.toymoban.com/news/detail-802541.html

到了这里,关于深度探讨 Golang 中并发发送 HTTP 请求的最佳技术的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Golang 接口自动化01】使用标准库net/http发送Get请求

    目录 发送Get请求 响应信息 拓展  资料获取方法 使用Golang发送get请求很容易,我们还是使用 http://httpbin.org 作为服务端来进行演示。 更多的响应内容我们查看安装路径的net包中Response struct 的信息,里面有详细的注释,参考路径: C:Gosrcnethttpresponse.go : 用过Python的同学都知

    2024年02月14日
    浏览(40)
  • 【Golang 接口自动化02】使用标准库net/http发送Post请求

    目录 写在前面 发送Post请求 示例代码 源码分析 Post请求参数解析 响应数据解析 验证 发送Json/XMl Json请求示例代码 xml请求示例代码 总结 资料获取方法 上一篇我们介绍了使用  net/http  发送get请求,因为考虑到篇幅问题,把Post单独拎了出来,我们在这一篇一起从源码来了解一

    2024年02月14日
    浏览(62)
  • Python向带有SSL/TSL认证服务器发送网络请求小实践(附并发http请求实现asyncio+aiohttp)

    最近工作中遇到这样的一个场景:给客户发送文件的时候,为保证整个过程中,文件不会被篡改,需要在发送文件之间, 对发送的文件进行签名, 而整个签名系统是另外一个团队做的, 提供了一个接口服务完成签名,但访问这个接口需要提供他们团队提供的证书链先进行认

    2024年04月16日
    浏览(45)
  • 高并发 发送请求(asyncio)

    在接手这个项目之前,关于数据存储的代码逻辑如上图,看起来按部就班,也很合理。(本人觉得这就像个玩具车) 在最后一步发送HTTP request响应足够快的话,其实速度说不上快但稳定,可以接受。但偏偏第三季度了,数据量上来了,最后一步得到response的时间达到了2秒多(

    2024年02月07日
    浏览(40)
  • 使用 Postman 批量发送请求的最佳实践

    目录 背景 批量发送? 起因 思考 Postman 批量发送接口 创建集合和接口 批量发送接口 资料获取方法 最近写了几个接口: 获取 books 的接口 获取 likes 的接口 获取 collections 的接口 但是我还是不放心,因为这些接口到底稳不稳定呢?上线后有没有隐患呢?所以我想做一个批量发

    2024年02月13日
    浏览(43)
  • 区块链学习5-长安链并发测试(3)_发送并发交易请求

    区块链学习4-长安链并发测试(2)_部署链_fvafuc的博客-CSDN博客 参考官方文档: https://docs.chainmaker.org.cn/quickstart/通过命令行体验链.html#cmc 修改cmc的sdk_config.yml,使其连接到指定的一个或多个节点: 参考官方文档: https://docs.chainmaker.org.cn/quickstart/通过命令行体验链.html#id14 ​ ​

    2024年02月02日
    浏览(41)
  • Axios基本使用,为学习后续的Vue服务【发送请求+并发请求+前端拦截器】

    目录 1、项目中引入Axios 2、使用Axios发送请求 2.1、例:发送GET请求 2.2、例:发送POST请求 3、axios并发请求 4、拦截器 注:个人学习笔记,因自己学过后端,所以有关后端的代码,我在这里就不展示了~ 不了解后端的宝子,也不会耽误学习,因为公司里会有写好的接口文档,直

    2024年02月02日
    浏览(53)
  • bat 发送http请求

    其中,-X POST 表示发送 POST 请求;-H 指定请求头信息;-d 指定 POST 请求的数据体。 setlocal 和 endlocal 是一对批处理命令,用于控制局部环境变量的范围。 setlocal 命令将创建一个新的环境变量,该环境变量是当前环境变量的一个副本。这样做的目的是为了在批处理文件中创建一

    2024年02月11日
    浏览(45)
  • java发送Http请求

    使用java 11添加的HttpClient新API发送Http(Https)请求 HTTP客户端是在Java 11中添加的。它可以用于通过网络请求HTTP资源。它支持 HTTP / 1.1和HTTP / 2(同步和异步编程模型),将请求和响应主体作为反应流处理,并遵循熟悉的构建器模式。 参考文章:https://blog.csdn.net/allway2/article/detail

    2023年04月12日
    浏览(41)
  • shell脚本发送http请求

    简述:使用shell脚本发送http请求,解析请求获取token再次发起请求 系统:ubuntu系统 工具:cURL(发送http请求),jq(解析json),没有需要安装

    2024年02月15日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包