【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战

这篇具有很好参考价值的文章主要介绍了【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

这是我们生成人工智能博客系列的第一部分。在这篇文章中,我们讨论了如何使用Ray来生产常见的生成模型工作负载。即将发布的一篇博客将深入探讨Alpa等项目为什么要使用Ray来扩展大型模型。

生成的图像和语言模型有望改变企业的设计、支持、开发等方式。本博客重点关注围绕基础模型支持工作负载生产部署的基础设施挑战,以及Ray,一个用于扩展ML工作负载的领先解决方案,如何应对这些挑战。最后,我们制定了一个改进路线图,以使事情变得更容易。

如今,领先的人工智能组织使用Ray大规模训练大型语言模型(LLM)(例如,OpenAI训练ChatGPT,Cohere训练其模型,EleutherAI训练GPT-J,Alpa训练多节点训练和服务)。然而,这些模型之所以如此令人兴奋,其中一个原因是可以对开源版本进行微调和部署,以解决特定问题,而无需从头开始训练。事实上,社区中的用户越来越多地询问如何使用Ray来协调他们自己的生成人工智能工作负载,建立由大型玩家训练的基础模型。

在下表中,我们用绿色突出显示了常见的“生产规模”需求(通常从1-100个节点开始)。这包括以下问题:

  • 如何将批量推理扩展到数TB的非结构化数据?
  • 我如何创建一个微调服务,可以根据需要创造新的工作岗位?
  • 如何在多个节点上部署跨多个GPU的模型?

在这篇博客文章中,我们将主要关注这些绿色突出显示的工作负载。

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

Different scale workloads for generative AI.

如果您有兴趣了解使用Ray进行生成人工智能工作负载的代码示例,请查看我们的示例页面。

生成模型:ML工作负载的最新发展

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

Fig. Based on the latest deep learning models, the compute requirements of generative AI mirror those of traditional ML platforms, only greater.

我们认为生成模型工作负载放大了ML工作负载背后固有的计算挑战。这是沿着两个轴来的:

  • 成本:生成模型更大,训练和服务的计算成本更高。例如,XGBoost/scikit学习模型每个记录可能需要1-10ms,而对这些生成模型的最基本推断将需要1000ms或更多——这是>100x的因子。这种成本的变化使得分布式成为那些希望在生产中使用生成模型的公司的默认要求。
  • 复杂性:部分由于成本的原因,文本生成和图像扩散等用例中出现了新的计算需求,如模型并行服务或增量状态更新(即报告部分结果)。

让我们更具体地按工作量来细分这一趋势。下表总结了常见的人工智能工作负载,以及这些不同用例的基础设施需求是如何随着时间的推移而演变的:

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

如表所示,这些工作负载的成本和复杂性随着时间的推移而增长——尽管该行业的GPU硬件得到了快速改进。接下来,让我们深入探讨从业者在使用生成人工智能处理这些工作负载时可能面临的挑战。

生成型人工智能基础设施面临的挑战

生成型人工智能基础设施为分布式培训、在线服务和离线推理工作负载带来了新的挑战。

1.分布式培训

目前,Ray正在进行一些规模最大的生成模型训练:

  • OpenAI使用Ray来协调ChatGPT和其他模型的训练。
  •  Alpa project 项目使用Ray来协调数据、模型和管道并行计算的训练和服务,并将JAX作为底层框架。
  • Cohere和 EleutherAI 使用Ray与PyTorch和JAX一起大规模训练他们的大型语言模型。

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

Fig. Alpa uses Ray as the underlying substrate to schedule GPUs for distributed training of large models, including generative AI models.

生成模型分布式训练的常见挑战包括:

  • 如何在多个加速器之间有效地划分模型?
  • 如何设置您的培训以容忍可抢占实例上的失败?

在即将发布的博客中,我们将介绍项目如何利用Ray来解决分布式培训的挑战。

2.在线服务和微调

我们还看到,人们越来越感兴趣地将Ray用于中等规模(例如1-100个节点)的生成人工智能工作负载。通常,这种规模的用户有兴趣使用Ray来扩展他们已经可以在一个节点上运行的现有训练或推理工作负载(例如,使用DeepSpeed、Accelerate或各种其他常见的单节点框架)。换句话说,为了部署在线推理、微调或培训服务,他们希望运行工作负载的许多副本。

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

Fig. A100 GPUs, while providing much more GRAM per GPU, cost much more per gigabyte of GPU memory than A10 or T4 GPUs. Multi-node Ray clusters can hence serve generative workloads at a significantly lower cost when GRAM is the bottleneck.

这种形式的扩展本身可能非常棘手,而且实施起来成本高昂。例如,考虑为多节点语言模型扩展微调或在线推理服务的任务。有许多细节需要解决,例如优化数据移动、容错和自动缩放模型副本。DeepSpeed和Accelerate等框架处理模型运算符的分片,但不处理调用这些模型的高级应用程序的执行。

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

Fig. Layered stack diagram for deployments of generative model workloads.

即使对于单节点工作负载,用户也经常可以从分发中受益,因为部署小型GPU集群比部署单个高端设备(例如A100 GPU)用于托管模型要便宜得多。这是因为低端GPU通常每GB内存的成本更低。然而,要扩展涉及多台机器的部署是很有挑战性的。如果没有像Ray Serve和Ray Data这样的库,也很难实现开箱即用的高利用率。

3.离线批量推理

在离线方面,这些模型的批量推理也面临着需要数据密集型预处理和GPU密集型模型评估的挑战。Meta和谷歌等公司构建自定义服务(DPP,tf.data服务),以在异构CPU/GPU集群中大规模执行此功能。虽然在过去,这样的服务很少见,但我们越来越多地看到用户询问如何在生成人工智能推理的背景下做到这一点。这些用户现在还需要解决分布式系统在调度、可观察性和容错方面的挑战。

Ray如何应对这些挑战

现有Ray功能

  • Ray Core调度:为了协调从头开始训练生成模型所需的大规模分布式计算,Ray Core灵活地支持在CPU和GPU上调度任务和参与者。对于那些使用Ray进行大规模模型训练的人来说,这一功能尤其有用。放置组允许用户保留GPU或CPU资源组,以放置大型模型的副本,用于多节点微调、推理或训练。
  • Ray Train:Ray的Train库提供了开箱即用的Trainer类,这些类可以运行流行的框架,如分布式TensorFlow、Torch、XGBoost、Horovod等。为了更容易开始使用生成模型,我们添加了与流行框架的集成,如HuggingFace Accelerate、DeepSpeed和Alpa To Train,以及RLHF支持。
  • Ray Serve:Ray Serve为缩放模型部署图提供了一流的API。因为Serve在Ray中运行,所以它在运行特别或辅助计算方面也有很大的灵活性。例如,用户从Serve启动Ray子任务来微调模型,并通过同样在Ray中运行的命名参与者来协调增量结果的返回。

即将推出的功能

  • Ray Data流后端:为了使混合CPU和GPU节点集群上的大规模批量推理更容易大规模运行,我们正在努力为Ray Data添加一流的流媒体推理支持:https://github.com/ray-project/enhancements/pull/18
  • Ray Serve中的异步请求:我们希望增强Ray Serve,以本地处理长时间运行的异步作业,如微调请求。这些请求通常需要几分钟的时间才能运行,比<10秒的正常ML推理作业要长得多,这通常意味着用户必须转向使用外部作业队列:https://github.com/ray-project/ray/issues/32292

我们正在发布的新示例

当然,在理论上可行和在实践中可行之间存在很大的区别。为了弥补这一差距,我们还宣布了几个生成性人工智能示例的初步发布,随着新模型和框架的出现,我们将随着时间的推移进行扩展。

链接的示例可能需要您使用Ray的夜间版本——链接和示例将在Ray 2.4的稳定版本上提供。

  • Stable Diffusion

    • Fine-Tuning

    • Serving

    • Batch Prediction

    • Streaming Batch Prediction: coming in Ray 2.5

  • GPT-J

    • Fine-Tuning

    • Serving

    • Batch Prediction

    • Streaming Batch Prediction: coming in Ray 2.5

  • OPT-66B

    • Fine-Tuning: coming in Ray 2.5

    • Serving: coming in Ray 2.5

    • Batch Prediction: coming in Ray 2.5

    • Streaming Batch Prediction: coming in Ray 2.5

结论

总之,我们认为生成模型正在加速对灵活、统一的框架(如Ray)的需求,以运行ML计算。Ray团队计划添加增强的API,用于大规模处理这些类型的昂贵模型和示例,以及与流行模型和社区框架的集成,使其易于入门。在这里开始学习Ray ML用例,并在我们的示例页面上查看我们使用Ray进行生成人工智能工作负载的代码示例。

文章链接:【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战 | 开发者开聊

自我介绍

  • 做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊】,有更多的内容分享,谢谢大家收藏。
  • 企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。 因为需要,比如数据资源入财务报表,另外数据如何估值和货币化需要财务和金融方面的知识,最近在学习财务,金融和法律。打算先备考CPA,然后CFA,如果可能也想学习法律,备战律考。
  • 欢迎爱学习的同学朋友关注,也欢迎大家交流。全网同号【架构师研究会】

【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战,LLM,人工智能,MLOps,人工智能,生成模型,Ray,模型训练,MLOps

欢迎收藏  【全球IT瞭望】,【架构师酒馆】和【开发者开聊】.文章来源地址https://www.toymoban.com/news/detail-784544.html

到了这里,关于【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 如何使用生成式人工智能探索视频博客的魅力?

    视频博客,尤其是关于旅游的视频博客,为观众提供了一种全新的探索世界的方式。通过图像和声音的结合,观众可以身临其境地体验到旅行的乐趣和发现的喜悦。而对于内容创作者来说,旅游视频博客不仅能分享他们的旅行故事,还能吸引关注,甚至实现变现。本文将指导

    2024年03月14日
    浏览(62)
  • 毕业论文如何生成目录?人工智能毕业论文选题

    AIPaperPass是一款专为AI论文写作而设计的创新平台。作为一名研究人员或学生,写作一篇高质量的AI论文可能是一项繁琐而耗时的任务。然而,借助AIPaperPass论文写作生成器,您可以轻松地生成高质量的AI论文,节省宝贵的时间和精力。 ——应用优点—— 1、高效论文生成 AIPa

    2024年02月20日
    浏览(41)
  • 人工智能与创新:如何解决实际问题

    人工智能(Artificial Intelligence, AI)是一种计算机科学的分支,旨在让计算机具有人类般的智能。人工智能的目标是让计算机能够理解自然语言、识别图像、解决问题、学习和自主决策等。人工智能技术的应用范围广泛,包括机器学习、深度学习、自然语言处理、计算机视觉、语

    2024年02月19日
    浏览(46)
  • 人工智能的未来:如何提高解决未知问题的能力

    人工智能(Artificial Intelligence, AI)是一种使计算机能够像人类一样智能地思考、学习和理解自然语言的技术。它的目标是创造出能够自主地解决问题、学习新知识和理解环境的智能系统。在过去的几十年里,人工智能技术已经取得了显著的进展,尤其是在机器学习、深度学习和

    2024年02月22日
    浏览(61)
  • 人工智能_大模型020_大模型生成vue/React/Bootstrap前端_如何获得ScreenShotToCode需要的gpt4和calude3的api key---人工智能工作笔记0156

    其实过程也很简单的,首先我们需要保证网络畅通 我们可以先去看看ScreenShotToCode的官网 这里点击一下这个 官网的登录,去使用GitHub账号登录,然后去看看 可以看到登录以后,然后我们再去点击getStarted,就可以看到,显示 15美元,去生成100次,可以,或者输入自己的OpenAI API Key使用 可以

    2024年04月26日
    浏览(48)
  • 什么是生成式人工智能?人工智能创造

    原文地址:什么是生成式人工智能?人工智能创造  生成式人工智能模型可以进行对话、回答问题、编写故事、生成源代码以及创建几乎任何描述的图像和视频。以下是生成式人工智能的工作原理、使用方式以及其局限性比您想象的要大的原因。 生成式人工智能是一种人工智

    2024年02月03日
    浏览(168)
  • 【人工智能】为什么说大模型会有「幻觉」问题,又如何去解决呢

    大家好,我是全栈小5,欢迎阅读文章! 此篇是【话题达人】序列文章,这一次的话题是《如何解决大模型的幻觉问题》 先来了解基本术语和缩写全称,比如LLM。 LLM是Large Language Model的缩写,指的是一种 大规模语言模型 ,可以用来为许多自然语言处理(Natural Language Processing

    2024年02月03日
    浏览(53)
  • 人工智能与医疗保健:如何利用人工智能解决医疗领域中的数据问题

    作者:禅与计算机程序设计艺术 随着互联网的飞速发展,现代社会信息化程度越来越高,各行各业都在不断向数字化转型。人工智能(AI)与医疗保健产业密切相关,应用场景丰富且多变。但是,如何更好地运用人工智能技术处理医疗保健数据,提升医疗服务质量,也是当前

    2024年02月07日
    浏览(55)
  • 【ChatGPT】人工智能生成内容的综合调查(AIGC):从 GAN 到 ChatGPT 的生成人工智能历史

      :AIGC,Artificial Intelligence Generated Content   【禅与计算机程序设计艺术:导读】 2022年,可以说是生成式AI的元年。近日,俞士纶团队发表了一篇关于AIGC全面调查,介绍了从GAN到ChatGPT的发展史。 论文地址: https://arxiv.org/pdf/2303.04226.pdf 刚刚过去的2022年,无疑是生成式

    2023年04月18日
    浏览(87)
  • 浅谈生成式人工智能

    本文分享自天翼云开发者社区《浅谈生成式人工智能》,作者:赖****生 一、什么是生成式人工智能? 生成式人工智能是指:利用机器学习技术让计算机自动生成不同模态(比如文本,图片,语音等)高质量数据的方法。尽管过去几十年的人工智能研究迭代出了无数的生成模型

    2024年02月16日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包