“过度炒作”的大模型巨亏,Copilot每月收10刀,倒赔20刀

这篇具有很好参考价值的文章主要介绍了“过度炒作”的大模型巨亏,Copilot每月收10刀,倒赔20刀。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大模型无论是训练还是使用,都比较“烧钱”,只是其背后的成本究竟高到何处?已经推出大模型商用产品的公司到底有没有赚到钱?事实上,即使微软、亚马逊、Adobe 这些大厂,距离盈利之路还有很远!同时,使用这些大模型工具的人越多,相关企业需要支付基础设施的费用就越高,正因如此,贴本的买卖也开始了。

01

微软 GitHub Copilot,每月倒贴每位用户 20 美元

据《华尔街日报》10月9日报道,微软首批生成式AI产品中的GitHub Copilot正在亏损,对于目前在 AI 大模型商业应用维度走在最前沿的微软而言,它在推出的帮助程序员创建、修复和翻译代码服务的 GitHub Copilot 且拥有 150 万用户的基础上,向使用者收取每月 10 美元亦或者是每年 100 美元的费用之际,还贴了不少了钱。该服务平均每个用户每月损失 20 美元,有些用户每月高达 80 美元。
“过度炒作”的大模型巨亏,Copilot每月收10刀,倒赔20刀,AIGC,AGI,AI,AIGC,人工智能此报道一出,引发了不少用户热议,本以为入局大模型是一笔赚钱的买卖,没想到它的成本费用如此高。

02

GPT-4、ChatGPT 为何会成为“吞金兽”?


论及收费 10 美元每月的 GitHub Copilot,其实费用也不算低,那为何还是无法让微软获得营收?从多个维度来看,这类大模型的运营成本之所以如此高,并非没有理由:

一,计算资源成本

运行一个大语言处理模型,如 ChatGPT,需要大量的计算资源,包括 GPU 或 CPU。这些资源的租用和维护费用通常占据了大部分运营成本。此前在与 OpenAI 合作时,透露,最初为支持 OpenAI 训练大模型,微软开发了一套新的 Azure 人工智能超级计算技术,也在 Azure 中建立超级计算资源,这些资源的设计和专用性使 OpenAI 能够训练一套日益强大的 AI 模型。为了训练出这套模型,微软在基础设施中使用了数以千计的英伟达人工智能优化 GPU,它们被连接在一个高吞吐量、低延迟的网络中,该网络基于英伟达量子 InfiniBand 通信,用于高性能计算。对此,促成微软和 OpenAI 合作的关键人物——负责战略合作伙伴关系的微软高级主管 Phil Waymouth 表示,OpenAI 训练其模型所需的云计算基础设施的规模是前所未有的,比业内任何人试图建立的网络 GPU 集群都要大得多。后来据彭博社报道,微软在该项目上已经花费了数亿美元。此外,还有博主根据论文,推算了一下开源大模型的费用:当训练一个 65B 参数的模型时,我们的代码在 2048 A100 GPU 和 80GB 的内存上处理大约 380 个 token /秒/GPU。这意味着在我们包含 1.4T 标记的数据集上进行训练大约需要 21 天。2048 个 GPU * 21*24 * 1$ ~ 100w刀,这还是确定数据集和参数后一次的训练成本

二,数据成本

训练一个类 ChatGPT 模型需要大规模的文本数据集,这些数据集的采集、准备和维护都需要资金。同时,数据的版权和许可成本也可能增加。早些时候,为了防止数据被“白嫖”,国外诸多问答社区、社交平台纷纷加入数据收费的队伍中,如 Reddit 对每 5000 万次 API 请求收费 1.2 万美元;Twitter 推出最便宜的套餐是每月需支付 4.2 万美元,用户可以访问 5000 万条推文;Stack Overflow 也曾一度被曝要向 AI 巨头收取训练数据费用......

三,工程师和研究人员成本

开发、维护和改进 ChatGPT 需要大量的工程师和研究人员。他们的薪资、福利和其他成本会对运营成本产生影响。不论科技巨头微软,只看 OpenAI。根据 OpenAI 之前发布的官方招聘信息显示,普通的 ChatGPT 软件工程师、机器学习研究科学家的薪资水平在 20 万美元 - 37 万美元(约 138.2 万-255.7 万元人民币)。主管的级别的薪资会更高一些,譬如 ChatGPT 移动端工程主管的薪酬在 30 万美元至 50 万美元(约 207.4 万-345.6 万元人民币)。

四,安全和隐私

在保护用户隐私和确保系统安全方面的额外投入可能会导致运营成本的增加。这包括监控系统,识别滥用和违规内容,以及实施安全措施。

五,能源成本

运行庞大的数据中心来支持 ChatGPT 所需的大量服务器和冷却设备,以及相关的能源成本也是一个重要因素。不久前,微软在发布了一份环境报告,其中透露,2022 年,公司用水量同比去年激增了 34%,较前几年大幅上涨,相当于超过 2500 个奥林匹克规格的游泳池水量,外部研究人员认为这与微软的人工智能研究有关。

六,维护和更新

模型需要定期维护和更新,以确保其性能、准确性和可用性。这可能需要定期的软件更新、改进和监控。

七,法规合规成本

符合各种法规和规定,如数据保护法规(如GDPR)和其他监管要求,也可能需要额外的成本,包括法律顾问和合规团队的费用。

八,性能优化和扩展

不断提高 ChatGPT 的性能和可扩展性可能需要投资于研究和开发,以应对更大的用户需求。总之,ChatGPT 等大模型的高运营成本是由多个因素共同作用造成的,包括硬件、数据、人力资源、安全、隐私和法规合规等多个方面。这些成本是维持系统高质量运行和用户满意度所必需的,同时也反映了大规模 AI 系统的复杂性。

“快速找补”的科技大厂们

有网友认为,「只有亏本经营才能获得迅速市场份额」。显然,这仅仅是一种短期策略。为了让大模型更长远地“存活”,微软等入局大模型的公司,已经想尽办法开始“补坑”。其中,最为值得关注的是,微软正在为其下一次人工智能软件升级提供更高的价格。除了按月定期收取 Microsoft 365 订阅费之外,该公司还将针对人工智能版本每月额外收取 30 美元,付费用户可以享受 AI 驱动的诸多功能,比如快速写邮件、一键把 Word 变成 PPT、快速处理 Excel 图表等。当然,也并不是微软一家这样做,据悉 Google 也为类似的 Duet AI 产品收取相同的额外费用。除了提高价格之外,知名外媒 The Information 独家爆料称,微软正在努力开发自己内部 AI 芯片,将其用在数据中心,并推动 PC 行业采用所谓的 NPU。据悉,微软有计划在下个月举行的年度开发者大会上,推出首款人工智能芯片,欲摆脱英伟达芯片带来的高昂费用。还有一些一些特殊方式正在入局 AI 大模型的企业中展开,如微软在考虑为 Bing 搜索引擎使用性能较低、成本更低的 AI 工具,还和在开源大模型领域撑起半边天的 Meta 牵手合作了;Zoom 结合了多种 AI 模型,开发了一个更为经济、简单的 AI 来降低成本;Adobe 采取积分制度,对每个月使用量设置了上限,并根据使用情况收费。

价值不明

Nature在一项1600名科学家的调查中也发现,那些在研究中使用AI的科学家中,认为AI工具现在已是“必需品”的人只占4%。简而言之,生成式AI最大的问题不是找到用例、需求,而是无法证明价值。指数风投(Index Ventures)合伙人Mark Goldberg表示,商业人工智能应用的出现曾经被寄予“光速实现”的乐观预期,但现在“出现了一种浅层次的幻灭感”:ChatGPT的初始用户增长激增,导致投资者高估了消费者将使用由生成式人工智能驱动的工具的速度。投资者在这些产品尚未拥有客户或收入之前便急于支持正在建设这些产品的初创公司,这引发了对市场可能过热的担忧。AI模型开发公司Writer的首席执行官May Habib表示,不断上升的估值反映了人们对人工智能前景的热情,但高管们很快就会更仔细地审视这些成本:我认为,明年将是生成式人工智能的融资基金消失的一年。文章来源地址https://www.toymoban.com/news/detail-787939.html

到了这里,关于“过度炒作”的大模型巨亏,Copilot每月收10刀,倒赔20刀的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 老码农眼中的大模型(LLM)

    即便全力奔跑,也不一定能跟上时代的步伐。但如果失去了学习的动力,很可能会被时代淘汰。而且,当时代淘汰我们的时候,往往不会有任何预警。基于大模型的 ChatGPT 给我们带来了极大的震撼,那么什么是大模型呢? 大型语言模型 (LLM) 被简称为大模型,是一类基础模型

    2023年04月26日
    浏览(25)
  • 我的大模型观:我眼中的LLM

    今年,大模型火的一塌糊涂。最近几个月paper with code上,前几名的论文几乎都是生成模型和LLM。参加AI相关的会议,也是千篇一律的LLM。国内的大厂争先恐后的发布自己的大模型,比如百度的文心、360的智脑、讯飞的星火等等,呈现出百花齐放百家争鸣的繁荣现象。。北京市

    2024年02月12日
    浏览(31)
  • “巨亏成名”的魔鬼交易员,你知道几个?

    谁说在期货市场上只有赚大钱才能出名?殊不知还有这样一群特殊的交易员靠着巨额亏损而“一战成名”,亏得是老东家元气大伤,外号“魔鬼交易员”——“不亏不成魔”!接下来火象就给大家盘点几位代表性魔鬼交易员,看看他们到底有着哪些震惊业界的“败家史”?给

    2024年02月16日
    浏览(25)
  • 使用开源通义千问模型(Qwen)搭建自己的大模型服务

    1、使用开源的大模型服务搭建属于自己的模型服务; 2、调优自己的大模型; 采用通义千问模型,https://github.com/QwenLM/Qwen 1、下载模型文件 开源模型库:https://www.modelscope.cn/models 2、下载使用docker 镜像 3、启动脚本 https://github.com/QwenLM/Qwen/blob/main/docker/docker_web_demo.sh 4、运行 访

    2024年02月01日
    浏览(51)
  • 如何从宏观层面构建优秀的大语言模型

      大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的

    2024年02月07日
    浏览(49)
  • 步步向前,曙光已现:百度的大模型之路

    大模型,是今年全球科技界最火热,最耀眼的。在几个月的狂飙突进中,全球主要科技公司纷纷加入了大模型领域。中国AI产业更是开启了被戏称为“百模大战”的盛况。 但喧嚣与热闹之后,新的问题也随之而来:大模型的力量究竟能否持续发展?在拥有了许多大模型

    2024年02月12日
    浏览(27)
  • 大语言模型(LLM)综述(四):如何适应预训练后的大语言模型

    随着人工智能和机器学习领域的迅速发展,语言模型已经从简单的词袋模型(Bag-of-Words)和N-gram模型演变为更为复杂和强大的神经网络模型。在这一进程中,大型语言模型(LLM)尤为引人注目,它们不仅在自然语言处理(NLP)任务中表现出色,而且在各种跨领域应用中也展示

    2024年02月08日
    浏览(39)
  • 零基础,零成本,部署一个属于你的大模型

    前言 看了那么多chatGPT的文章,作为一名不精通算法的开发,也对大模型心痒痒。但想要部署自己的大模型,且不说没有算法相关的经验了,光是大模型占用的算力资源,手头的个人电脑其实也很难独立部署。就算使用算法压缩后的大模型,部署在个人电脑上,还要忍受极端

    2024年02月07日
    浏览(35)
  • LLamaFactory:当下最容易上手的大模型微调工具

    近日,国内的一款微调框架发布了自己的论文《LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models》,对他们的框架做了系统性的总结。该框架自推出后迅速出圈,现已斩获15.6k的star,逐步成为当下微调的首选工具。 喜欢本文记得收藏、点赞、关注。文末参与技术讨论 htt

    2024年04月29日
    浏览(26)
  • 【AI模型系列】中国AI大模型峰会“封神之作”,不容错过的大模型机遇

    目录 序言   峰会介绍 现场大咖   大语言模型 五大论坛  峰会特点 参与方式 方式一 方式二  AI大模型是指具有数十亿个参数的深度学习模型。这些模型通常使用多层神经网络来处理大规模的数据集,以学习和提高它们的表现。 大模型通常需要大量的计算资源和大量的数据

    2024年02月14日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包