一、背景
在当今社会,实际应用比纯粹理解原理和概念更为重要。即使您对某个领域的原理和概念有深入的理解,但如果无法将其应用于实际场景并受制于各种客观条件,那么与其一开始就过于深入,不如先从基础开始,实际操作后再逐步深入探索。
在这种实践至上的理念下,或许我可以为您提供一种直接的、实际操作的方法。希望能借助我的经验,为各位朋友带来一些有帮助的建议,例如:
1、您是否也在迫不及待地期待在AI时代中展示自己的能力?
2、您是否一直在研究如何使用开源模型?
3、您是否一直在寻找将AI与业务结合的方向?
4、您是否一直在寻找模型推理加速的方法?
5、您是否一直在努力整合来自互联网上零散的资料?
如果您在上述问题中有类似的疑问,我非常希望您能从中受益。
二、项目架构
简化后的示意图如下:
三、总览
通过实际案例,我们将为大家呈现一系列文章,帮助您了解如何将开源模型与业务整合。这些文章将引导您深入掌握该过程。
3.1. 初级入门系列
3.1.1. 开源模型应用落地-qwen模型小试-入门篇系列
开源模型应用落地-qwen模型小试-入门篇(一)
重点:在windows环境下,使用transformer调用Qwen-1_8B-Chat模型
开源模型应用落地-qwen模型小试-入门篇(二)
重点:在windows环境下,使用transformer设置模型参数/System Prompt/历史对话
开源模型应用落地-qwen模型小试-入门篇(三)
重点:在linux环境下,使用transformer调用Qwen-1_8B-Chat模型
开源模型应用落地-qwen模型小试-入门篇(四)
重点:使用gradio,构建Qwen-1_8B-Chat模型的测试界面
开源模型应用落地-qwen模型小试-入门篇(五)
重点:使用modelscope api调用Qwen-1_8B-Chat模型,实现非流式/流式输出
开源模型应用落地-qwen2模型小试-入门篇(六)
重点:Qwen1.5系列模型的新特性及使用方式
开源模型应用落地-qwen模型小试-进阶篇(七)
重点:调用微调后的qwen-7b-chat模型
3.1.2. 开源模型应用落地-baichuan模型小试-入门篇系列
开源模型应用落地-baichuan模型小试-入门篇(一)
重点:在windows环境下,使用transformer调用Baichun-7B模型
3.1.3. 开源模型应用落地-chatglm模型小试-入门篇系列
3.1.4. 开源模型应用落地-KnowLM模型小试-入门篇系列
开源模型应用落地-KnowLM模型小试-入门篇(一)
重点:调用KnowLM模型,实现知识抽取
开源模型应用落地-KnowLM模型小试-入门篇(二)
重点:优化模型参数,提高知识提取效率和质量
3.2. 高级进阶系列
3.2.1. 开源模型应用落地-向量数据库小试-入门篇系列
开源模型应用落地-工具使用篇-向量数据库(三)
重点:Milvus Lite向量数据库的基本使用
开源模型应用落地-工具使用篇-向量数据库进阶(四)
重点:Milvus Lite向量数据库的进阶使用
3.2.2. 开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势系列
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(一)
重点:qwen-7b-chat集成vllm
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(二)
重点:gunicorn+flask构建AI服务
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(三)
重点:supervisor提升服务的稳定性
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(四)
重点:鉴权和限流提升AI服务的安全性和稳定性
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(五)
重点:定时任务处理隐藏盲点
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(六)
重点:改变模型自我认知
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(七)
重点:AI服务性能优化
开源模型应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(八)
重点:qwen1.5-7b-chat集成vllm
开源模型应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(九)
重点:qwen1.5-7b-chat集成vllm,构建与OpenAI-API兼容的API服务
3.2.3. 开源模型应用落地-业务整合系列
开源模型应用落地-业务整合篇(一)
重点:使用HttpURLConnection/OkHttp/HttpClient多种方式调用AI服务
开源模型应用落地-业务整合篇(二)
重点:使用Netty库快速构建WebSocket服务,实现客户端与AI服务交互
开源模型应用落地-业务整合篇(三)
重点:spring boot集成netty服务,实现用户界面交互
开源模型应用落地-业务整合篇(四)
重点:构建websocket身份校验机制,避免无效连接
开源模型应用落地-业务整合篇(五)
重点:构建websocket心跳机制,及时释放一些无效的连接
3.2.4. 开源模型应用落地-业务优化系列
开源模型应用落地-业务优化篇(一)
重点:使用线程池提升处理效率
开源模型应用落地-业务优化篇(二)
重点:使用Redis队列和分布式锁实现请求排队
开源模型应用落地-业务优化篇(三)
重点:使用SLB实现AI服务水平扩容
开源模型应用落地-业务优化篇(四)
重点:多级数据缓存概述
开源模型应用落地-业务优化篇(五)
重点:使用HanLP进行词性标注,并使用Redis作为一级缓存
开源模型应用落地-业务优化篇(六)
重点:使用向量数据库作为二级缓存,来为AI服务减负,提升处理效率
开源模型应用落地-业务优化篇(七)
重点:使用RocketMQ提升处理效率
开源模型应用落地-业务优化篇(八)
重点:统计问题的请求频次,实现热门问题的实时缓存
3.2.5. 开源模型应用落地-安全合规系列
开源模型应用落地-安全合规篇(一)
重点:使用DFA算法检测输入内容的合法性
开源模型应用落地-安全合规篇(二)文章来源:https://www.toymoban.com/news/detail-839889.html
重点:使用腾讯云文本内容安全服务检测输入内容的合法性文章来源地址https://www.toymoban.com/news/detail-839889.html
3.3. 深度优化系列
3.3.1. 开源模型应用落地-qwen模型微调系列
3.3.2. 开源模型应用落地-记忆增强系列
3.4. 知识巩固系列
3.4.1.开源模型应用落地-项目回顾系列
到了这里,关于开源模型应用落地-总述的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!