Py之optimum:optimum的简介、安装、使用方法之详细攻略

这篇具有很好参考价值的文章主要介绍了Py之optimum:optimum的简介、安装、使用方法之详细攻略。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Py之optimum:optimum的简介、安装、使用方法之详细攻略

目录

optimum的简介

1、加速推理  Optimum 提供多种工具,用于在不同生态系统上导出和运行优化模型:

2、功能概述

optimum的安装

1、如果您想使用  Optimum 的加速器特定功能,您可以根据下表安装所需的依赖项:

2、从源代码安装:

optimum的使用方法

1、基础用法

(1)、加载一个模型并使用 OpenVINO Runtime 运行推理

(2)、要加载使用 Intel Neural Compressor 量化的模型(本地或在  hub 上托管),可以按如下方式进行:


optimum的简介

Optimum 是Transformers 和 Diffusers 的扩展,提供了一套优化工具,可实现在目标硬件上训练和运行模型的最大效率,同时保持易于使用。

1、加速推理  Optimum 提供多种工具,用于在不同生态系统上导出和运行优化模型:

  • ONNX / ONNX Runtime
  • TensorFlow Lite
  • OpenVINO
  • Habana 第一代 Gaudi / Gaudi2,更多详情请参见这里

导出和优化可以通过编程方式和命令行完成。

2、功能概述

功能 ONNX Runtime Neural Compressor OpenVINO TensorFlow Lite
图优化 N/A N/A
训练后动态量化 N/A
训练后静态量化
量化感知训练 (QAT) N/A N/A
FP16 (半精度) N/A
剪枝 N/A N/A
知识蒸馏 N/A N/A

optimum的安装

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple optimum auto-gptq

Py之optimum:optimum的简介、安装、使用方法之详细攻略,NLP/LLMs,Python_Libraries,深度学习,人工智能Py之optimum:optimum的简介、安装、使用方法之详细攻略,NLP/LLMs,Python_Libraries,深度学习,人工智能

1、如果您想使用  Optimum 的加速器特定功能,您可以根据下表安装所需的依赖项:

加速器 安装命令
ONNX Runtime pip install --upgrade-strategy eager optimum[onnxruntime]
Intel Neural Compressor pip install --upgrade-strategy eager optimum[neural-compressor]
OpenVINO pip install --upgrade-strategy eager optimum[openvino,nncf]
Habana Gaudi 处理器 (HPU) pip install --upgrade-strategy eager optimum[habana]
FuriosaAI pip install --upgrade-strategy eager optimum[furiosa]

需要使用 --upgrade-strategy eager 选项来确保不同的软件包被升级到最新版本。

2、从源代码安装:

python -m pip install git+https://github.com/huggingface/optimum.git

对于特定加速器功能,请将 optimum[accelerator_type] 添加到上述命令中:

python -m pip install optimum[onnxruntime]@git+https://github.com/huggingface/optimum.git

OpenVINO 这需要通过以下命令安装 OpenVINO 额外功能:

pip install --upgrade-strategy eager optimum[openvino,nncf]

optimum的使用方法

1、基础用法

(1)、加载一个模型并使用 OpenVINO Runtime 运行推理

只需将 AutoModelForXxx 类替换为相应的 OVModelForXxx 类。要加载 PyTorch 检查点并在加载模型时将其转换为 OpenVINO 格式,可以在加载模型时设置 export=True文章来源地址https://www.toymoban.com/news/detail-735258.html

from transformers import AutoModelForSequenceClassification
from optimum.intel import OVModelForSequenceClassification
from transformers import AutoTokenizer, pipeline

model_id = "distilbert-base-uncased-finetuned-sst-2-english"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = OVModelForSequenceClassification.from_pretrained(model_id, export=True)
model.save_pretrained("./distilbert")

classifier = pipeline("text-classification", model=model, tokenizer=tokenizer)
results = classifier("He's a dreadful magician.")

(2)、要加载使用 Intel Neural Compressor 量化的模型(本地或在  hub 上托管),可以按如下方式进行:

from optimum.intel import INCModelForSequenceClassification

model_id = "Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-dynamic"
model = INCModelForSequenceClassification.from_pretrained(model_id)

到了这里,关于Py之optimum:optimum的简介、安装、使用方法之详细攻略的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Py之py2neo:py2neo的简介、安装、使用方法之详细攻略

    CV之DL之YOLOv8:YOLOv8的简介、安装和使用方法、案例应用之详细攻略 目录 YOLOv8的简介 1、Yolov8的概述 2、YOLOv8对比前身YOLOv5 YOLOv8的安装和使用方法 1、安装和使用 T1、采用yolov8安装和使用 第1步,安装YOLOv8 第2步,使用YOLOv8 T1、采用CLI T2、采用Python T2、采用ultralytics安装和使用

    2024年02月13日
    浏览(47)
  • Py之imbalanced-ensemble:imbalanced-ensemble库的简介、安装、使用方法之详细攻略

    Py之imbalanced-ensemble:imbalanced-ensemble库的简介、安装、使用方法之详细攻略 目录 imbalanced-ensemble库的简介 imbalanced-ensemble库的安装 imbalanced-ensemble库的使用方法 1、基础用法       imbalanced-ensemble是一个用于处理不平衡数据集的 Python 库,它提供了一系列的机器学习方法和工具来

    2024年02月03日
    浏览(38)
  • 测试新手百科:Postman简介、安装、入门使用方法详细攻略!

    本文:Postman基础 目录 一、Postman背景介绍 二、Postman的操作环境 三、Postman下载安装 四、Postman的基础功能 五、接口请求流程 六、管理用例—Collections 七、身份验证Authentication  用户在开发或者调试网络程序或者是网页B/S模式的程序的时候是需要一些方法来跟踪网页请

    2024年02月11日
    浏览(63)
  • Computer:IPFS(星际文件系统)的简介、安装、使用方法之详细攻略

    Computer:IPFS(星际文件系统)的简介、安装、使用方法之详细攻略 目录 IPFS的简介 1、IPFS的应用 IPFS的安装 IPFS的使用方法 1、下载文件 第一步,启动IPFS节点 第二步,获取文件的CID 第三步,下载文件          星际文件系统是一个旨在创建持久且分布式存储和共享文件的网络传

    2024年02月07日
    浏览(86)
  • LLMs之Code:SQLCoder的简介、安装、使用方法之详细攻略

    LLMs之Code:SQLCoder的简介、安装、使用方法之详细攻略 目录 SQLCoder的简介 1、结果 2、按问题类别的结果 SQLCoder的安装 1、硬件要求 2、下载模型权重 3、使用SQLCoder 4、Colab中运行SQLCoder 第一步,配置环境 第二步,测试 第三步,下载模型 第四步,设置问题和提示并进行标记化

    2024年02月11日
    浏览(56)
  • LLMs之Code:Code Llama的简介、安装、使用方法之详细攻略

    LLMs之Code:Code Llama的简介(衍生模型如Phind-CodeLlama/WizardCoder)、安装、使用方法之详细攻略 导读 :2023年08月25日(北京时间),Meta发布了Code Llama,一个可以使用 文本提示生成代码 的大型语言模型(LLM)。Code Llama是最先进的公开可用的LLM代码任务,并有潜力 使工作流程更快 ,更有

    2024年02月10日
    浏览(230)
  • AI之Suno:Suno V3的简介、安装和使用方法、案例应用之详细攻略

    AI之Suno:Suno V3的简介、安装和使用方法、案例应用之详细攻略 目录 Suno AI的简介 1、特点与改进: Suno AI的安装和使用方法 1、第一步,让国产大模型—ChatGLM4帮我写一个提示词 2、第二步,将提示词交给Suno v3,让Suno v3生成一首歌曲 Suno AI的案例应用 Suno是一款基于文本生成音

    2024年04月09日
    浏览(57)
  • LLMs之Llama3:Llama 3的简介、安装和使用方法、案例应用之详细攻略

    LLMs之Llama3:Llama 3的简介、安装和使用方法、案例应用之详细攻略 导读 :2024年4月18日,Meta 重磅推出了Meta Llama 3,本文章主要介绍了Meta推出的新的开源大语言模型Meta Llama 3。模型架构 Llama 3 是一种 自回归 语言模型,采用了优化的 Transformer 架构。调优版本使用了 监督微调(

    2024年04月22日
    浏览(54)
  • AI:ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略

    AI:ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略 导读 :ModelScope旨在打造下一代 开源 的 模型即服务 共享 平台, 汇集 了行业 领先的预训练模型 ,减少了开发者的 重复研发 成本。个人认为,相比于AI公司经常卖一款软件产品或者卖一个算

    2024年02月03日
    浏览(46)
  • LLM之LangChain:LangChain 0.1.0 版本发布的简介、安装和使用方法、案例应用之详细攻略

    LLM之LangChain:LangChain 0.1.0 版本发布的简介、安装和使用方法、案例应用之详细攻略 导读 :2024年1月8日,今天,我们很高兴宣布 发布 langchain 0.1.0 ,这是我们的 第一个稳定版本 。它完全 向后兼容 ,提供了 Python 和 JavaScript 两个版本,并通过功能和文档的双重改进来提高焦点

    2024年01月19日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包