为 Hugging Face 用户带来无服务器 GPU 推理服务

这篇具有很好参考价值的文章主要介绍了为 Hugging Face 用户带来无服务器 GPU 推理服务。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今天,我们非常兴奋地宣布 部署到 Cloudflare Workers AI 功能正式上线,这是 Hugging Face Hub 平台上的一项新服务,它使得通过 Cloudflare 边缘数据中心部署的先进 GPU、轻松使用开放模型作为无服务器 API 成为可能。

从今天开始,我们将把 Hugging Face 上一些最受欢迎的开放模型整合到 Cloudflare Workers AI 中,这一切都得益于我们的生产环境部署的解决方案,例如 文本生成推理 (TGI)。

通过 部署到 Cloudflare Workers AI 服务,开发者可以在无需管理 GPU 基础架构和服务器的情况下,以极低的运营成本构建强大的生成式 AI(Generative AI)应用,你只需 为实际计算消耗付费,无需为闲置资源支付费用

开发者的生成式 AI 工具

这项新服务基于我们去年与 Cloudfalre 共同宣布的 战略合作伙伴关系——简化开放生成式 AI 模型的访问与部署过程。开发者和机构们共同面临着一个主要的问题——GPU 资源稀缺及部署服务器的固定成本。

Cloudflare Workers AI 上的部署提供了一个简便、低成本的解决方案,通过 按请求计费模式,为这些挑战提出了一个无服务器访问、运行的 Hugging Face 模型的解决方案。

举个具体例子,假设你开发了一个 RAG 应用,每天大约处理 1000 个请求,每个请求包含 1000 个 Token 输入和 100 个 Token 输出,使用的是 Meta Llama 2 7B 模型。这样的 LLM 推理生产成本约为每天 1 美元。

我们很高兴能够这么快地实现这一集成。将 Cloudflare 全球网络中的无服务器 GPU 能力,与 Hugging Face 上最流行的开源模型结合起来,将为我们全球社区带来大量激动人心的创新。

John Graham-Cumming,Cloudflare 首席技术官

使用方法

在 Cloudflare Workers AI 上使用 Hugging Face 模型非常简单。下面是一个如何在 Nous Research 最新模型 Mistral 7B 上使用 Hermes 2 Pro 的逐步指南。

你可以在 Cloudflare Collection 中找到所有可用的模型。

注意:你需要拥有 Cloudflare 账户 和 API 令牌。

你可以在所有支持的模型页面上找到“部署到 Cloudflare”的选项,包括如 Llama、Gemma 或 Mistral 等模型。

打开“部署”菜单,选择“Cloudflare Workers AI”,这将打开一个包含如何使用此模型和发送请求指南的界面。

注意:如果你希望使用的模型没有“Cloudflare Workers AI”选项,意味着它目前不支持。我们正与 Cloudflare 合作扩展模型的可用性。你可以通过 api-enterprise@huggingface.co 联系我们,提交你的请求。

当前有两种方式可以使用此集成:通过 Workers AI REST API 或直接在 Workers 中使用 Cloudflare AI SDK。选择你偏好的方式并将代码复制到你的环境中。当使用 REST API 时,需要确保已定义 ACCOUNT_IDAPI_TOKEN 变量。

就这样!现在你可以开始向托管在 Cloudflare Workers AI 上的 Hugging Face 模型发送请求。请确保使用模型所期望的正确提示与模板。

我们的旅程刚刚开始

我们很高兴能与 Cloudflare 合作,让 AI 技术更加易于开发者访问。我们将与 Cloudflare 团队合作,为你带来更多模型和体验!文章来源地址https://www.toymoban.com/news/detail-844746.html

到了这里,关于为 Hugging Face 用户带来无服务器 GPU 推理服务的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 本地连接服务器使用GPU训练模型

    直接运行上面的文件,然后输入密码,这密码不是服务器的密码,但是可以直接连接到服务器上面,这个东西是什么?好厉害,居然可以跳过去服务器的账号密码 我本来想忽略一些不需要上传文件,但是无法成功忽略,scp好像不支持 下面这个命令是从服务器上面传输数据到

    2024年02月07日
    浏览(40)
  • 在服务器上指定GPU跑代码

    查看GPU状态和信息,找到空闲的GPU: 从图中 Processes 表格我们可以发现0、1、2号GPU均是可以利用的。于是我们可以在python文件中加入以下代码,表示使用0号GPU: 或者可以在命令行窗口处输入,表示使用1号GPU运行代码: 再或者使用  torch.cuda.set_device() 函数 指定gpu使用编号:

    2024年02月04日
    浏览(40)
  • NVIDIA GPU 与服务器型号匹配查询

    https://www.nvidia.cn/data-center/data-center-gpus/qualified-system-catalog/ https://www.nvidia.com/en-us/data-center/data-center-gpus/qualified-system-catalog/ 确保服务器与 NVIDIA GPU 匹配运行。 符合特定 NVIDIA GPU 要求的服务器已通过散热、规格尺寸、功率和信号完整性认证,以确保 GPU 在该服务器设计中能够正

    2024年02月03日
    浏览(46)
  • 云服务器ECS_GPU云服务器_AIGC_弹性计算-阿里云

    阿里云高性能云服务器60%单实例最大性能提升,35Gbps内网带宽,网络增强通用型云服务器、本地SSD型云服务器、大数据型云服务器、GPU异构型云服务器,阿里云百科aliyunbaike.com分享阿里云高性能云服务器: 阿里云高性能云服务器 网络增强通用型云服务器 网络增强通用型云服

    2024年01月16日
    浏览(53)
  • 服务器已经存在CUDA但无法使用GPU

    记录一下我使用服务器期间遇到的问题以及解决方法(主要使用tensorflow) 先介绍一下我本次遇到的问题: 我在服务器上拥有一个独立的账号,我发现我的tensorflow无法调用GPU,先排查可能存在的问题 终端输入 nvcc -V 结果如下: 显示已经安装了11.8版本的CUDA  但是在python文件

    2024年02月02日
    浏览(35)
  • 北京超级云计算GPU服务器的使用教程

    北京超级云计算中心(北京超算云)是一个很不错的训练深度学习模型的平台(主要是可以白嫖200元的GPU算力资源),官网连接。申请账号现在应该还送200元(我申请使用的是GPU服务器)。在官网中填写申请信息,然后等着客户经理给你打电话,然后把你的需求说清楚,第二

    2024年02月02日
    浏览(37)
  • 如何在服务器使用GPU跑深度学习代码

    每个人都有他们偏好的工具和工作流程。就我个人而言,我喜欢使用 PyCharm Professional Edition 作为我的集成开发环境,选择使用 HengYuan Cloud\\\'s OSS.exe 和 FileZilla 进行文件传输,并且我倾向于使用 Xshell 来处理命令行操作。这些工具的组合满足了我的所有需求,并使我的工作效率最

    2024年04月12日
    浏览(41)
  • linux服务器安装gpu版本的pytorch

    每次换个环境又要安装pytorch,最开始安装总是出错,写下不踩坑安装全过程 运行命令 nvidia-smi 如下所示  比方说我的是右上角显示11.2,所以  选择Linux ,这里没有我的cuda版本    找过往版本Previous PyTorch Versions | PyTorch  发现有11.3  11.1版本和10.2版本,但是没有11.2版本,查

    2024年02月04日
    浏览(38)
  • (一)ssh远程连接服务器GPU以及其他GPU使用途径——新手指南

    最近在训练语义分割网络时决定使用GPU,本文记录新手在使用GPU时遇到的一些坑。想要在win10系统上配置GPU运行Pytorch代码可以考虑以下几种方式: 安装cuda,以及GPU版本的pytorch和torchvision,使用电脑自带的GPU进行网络训练; 远程连接实验室的服务器,通过IP、账号以及密码进

    2024年02月08日
    浏览(33)
  • 腾讯云GPU服务器GN7实例NVIDIA T4 GPU卡

    腾讯云GPU服务器GN7实例搭载1颗 NVIDIA T4 GPU,8核32G配置,系统盘为100G 高性能云硬盘,自带5M公网带宽,系统镜像可选Linux和Windows,地域可选广州/上海/北京/新加坡/南京/重庆/成都/首尔/中国香港/德国/东京/曼谷/硅谷/弗吉尼亚节点,腾讯云百科分享腾讯云GPU服务器配置表: 目录

    2024年02月12日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包