估计基于 ChatGPT 服务在 16 个 A100 GPU 上运行的假设,ChatGPT 可能需要更多的 GPU 来为其用户提供服务。
由此自然也可以推断,ChatGPT 很可能部署在多个地理位置。这使得估算 ChatGPT 的每日总碳足迹变得非常困难,因为我们需要确切知道有多少 GPU 在哪些区域运行,以便将每个区域的电力碳强度纳入碳足迹估算。
另一方面,估算 ChatGPT 的耗电量原则上更简单,因为我们不需要知道 ChatGPT 在哪些地理区域运行。下面我将解释如何估算 ChatGPT 的能源消耗,我特别估算了 2023 年 1 月 ChatGPT 的用电量。范围仅限于 2023 年 1 月,因为我们有一些 ChatGPT 本月的流量估算。
估算 ChatGPT 的用电量
以下是估算 ChatGPT 耗电量的方法:
- 估算 ChatGPT 每次查询的耗电量
- 估计给定时间段内 ChatGPT 的查询总数
- 将这两个相乘
为了计算 ChatGPT 的耗电量可能位于的范围,我将为第 1 点和第 2 点分别定义 3 个不同的值。让我们首先看一下第 1 点。
第 1 步:ChatGPT 的每次查询耗电量
BLOOM 是一种与 ChatGPT 的底层语言模型 GPT-3 大小相似的语言模型。
BLOOM 在部署在 16 个 Nvidia A100 40 GB GPU 上的 18 天内消耗了 914 千瓦时的电力,平均每小时处理 558 个请求,共计 230,768 个查询。查询未成批处理。914 千瓦时考虑了 CPU、RAM 和 GPU 的使用 [2]。
因此,BLOOM 在那个时期的用电量为每次查询 0,00396 千瓦时。文章来源:https://www.toymoban.com/news/detail-442167.html
让我们考虑代理文章来源地址https://www.toymoban.com/news/detail-442167.html
到了这里,关于ChatGPT每月大概需要使用消耗了 17.5万人的电力的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!