本地部署DeepSeek

在我们的Toy模板网-Toy博客中,您可以找到各种有关 本地部署DeepSeek 的文章。这些文章涵盖了与 本地部署DeepSeek 相关的各种话题和内容。无论您对本地部署DeepSeek 感兴趣的是什么,我们都努力为您提供最相关和有价值的信息。通过下面的文章列表,您可以进入我们专门针对本地部署DeepSeek 创建的搜索页面,以便更方便地浏览和查找与该标签相关的所有文章

Toy模板网专属的本地部署DeepSeek页面上,您将找到与本地部署DeepSeek相关的文章列表,这些文章覆盖了各个子主题和相关领域。我们希望这些文章能够满足您的需求,并帮助您深入了解本地部署DeepSeek。

  • 教你如何在本地搭建DeepSeek,摆脱DeepSeek服务器繁忙,在家也能用

    教你如何在本地搭建DeepSeek,摆脱DeepSeek服务器繁忙,在家也能用

    深度解析如何通过Ollama框架在Windows/macOS/Linux系统本地部署DeepSeek模型,提供从环境准备、安装配置到API对接的完整解决方案,彻底解决服务器卡顿和API限流问题,附常见错误排查手册。

    2025-02-07
    341
  • 【deepseek】(1):12月1日新大模型deepseek发布!使用3080显卡,运行deepseek-7b模型,可以正常运行WebUI了,速度9 words/s。

    【deepseek】(1):12月1日新大模型deepseek发布!使用3080显卡,运行deepseek-7b模型,可以正常运行WebUI了,速度9 words/s。

    https://www.bilibili.com/video/BV1364y157EA/ 【deepseek】(1):12月1日新大模型deepseek发布!使用3080显卡,运行7b模型,可以正常运行WebUI了,速度9 words/s。 RTX 3080 Ti 拥有 34 TFLOPS 的着色器性能、67 TFLOPS 的光追性能、以及 273 TFLOPS 的 Tensor(Sparsity)性能。 该卡的外形设计,依然类似于现

    2024-01-22
    7
  • DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2

    DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2

    自从 LLaMA 被提出以来,开源大型语言模型(LLM)的快速发展就引起了广泛研究关注,随后的一些研究就主要集中于训练固定大小和高质量的模型,但这往往忽略了对 LLM 缩放规律的深入探索。 开源 LLM 的缩放研究可以促使 LLM 提高性能和拓展应用领域,对于推进自然语言处理

    2024-02-02
    7
  • 集体出走的Stability AI 发布全新代码大模型,3B以下性能最优,超越Code Llama和DeepSeek-Coder

    集体出走的Stability AI 发布全新代码大模型,3B以下性能最优,超越Code Llama和DeepSeek-Coder

    Stability AI又有新动作!程序员又有危机了? 3月26日,Stability AI推出了先进的代码语言模型Stable Code Instruct 3B,该模型是在Stable Code 3B的基础上进行指令调优的Code LM。 Stability AI 表示,Stable Code Instruct 3B 在代码完成准确性、对自然语言指令的理解以及处理多种编程语言方面都优

    2024-04-22
    8
  • Whisper JAX 语音识别本地部署 whisperX 语音识别本地部署视频教程

    https://nlpcloud.com/zh/how-to-install-and-deploy-whisper-the-best-open-source-alternative-to-google-speech-to-text.html whisper-jax最详细的安装教程 | 一个号称比whisper快70倍的语音识别项目 | 免费开源的语音识别项目 whisperX 语音识别本地部署_JoeManba的博客-CSDN博客 GitHub - sanchit-gandhi/whisper-jax: JAX implement

    2024-02-16
    17
  • 本地部署LLaMA-中文LoRA部署详细说明

    本地部署LLaMA-中文LoRA部署详细说明

    硬件环境 AMD 5950X 128GB RAM RTX 3090(24G VRAM) 操作系统 Ubuntu 18.04 编译环境(可选) llama.cpp 编译: 遇到Ubuntu18.04默认稳定版本gcc和g++不兼容问题,报错: 通过更新Ubuntu的gcc,g++版本后,make进行编译; Python虚拟环境 Python = 3.10.7 requirements.txt 安装CUDA,CUDA == 11.7; 卸载老版本: 安装新版本CUDA(实际为

    2024-02-13
    7
  • 本地部署StableDiffusion WebUI

    本地部署StableDiffusion WebUI

    How To Run Stable Diffusion 2.0 On Your Local PC — No Code Guide https://luminous-mapusaurus-1aa.notion.site/Stable-Diffusion-ce61d77468644806ab03a780f670df51 stable-diffusion-webui 安装_w3cschool https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 为了让conda执行下载指令加速,需要对conda换源操作,即将源由国外原始源,改为国

    2024-02-12
    7
  • minigpt-4 本地部署

    minigpt-4 git主页。 笔者参考了深度学习笔记–本地部署Mini-GPT4,使用了http链接, huggingface下载llama和vicuna权重的download.txt分别如下: 下载权重的脚本如下,使用了 wget ${file} --no-check-certificate 绕开https检查: 笔者的环境下,安装FastChat 0.1.10会导致依赖冲突: 因此改为安装别的

    2024-02-07
    8
  • 本地部署 wandb

    本地部署 wandb

    Docker 安装完成 Python 安装完成 注册 wandb.ai 并获得 License key refer: https://github.com/wandb/server 创建目录, 访问 Docker Hub 确认最新版 tag, 启动容器, 使用浏览器打开 http://192.168.31.92:8080,将 192.168.31.92 换成你的 IP 地址,注册账号并登录。 然后单击右侧的 “System settings”, 输入之

    2024-02-14
    6
  • StarRocks本地部署

    官方文档 这里基本上是按文档来部署的,为了自己方便测试而纪录。 介绍 StarRocks 是一款高性能分析型数据仓库,使用向量化、MPP 架构、CBO、智能物化视图、可实时更新的列式存储引擎等技术实现多维、实时、高并发的数据分析。StarRocks 既支持从各类实时和离线的数据源高

    2024-01-25
    9
  • 本地部署 ChatGLM3

    本地部署 ChatGLM3

    ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性: 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更

    2024-02-06
    7
  • Hadoop部署本地模式

    Hadoop部署本地模式

    ​ 本地模式,即运行在单台机器上。没有分布式的思想,使用的是本地文件系统。使用本地模式主要是用于对MapReduce的程序的逻辑进行调试,确保程序的正确性。由于在本地模式下测试和调试MapReduce程序较为方便,因此,这种模式适合用在开发阶段。 平台软件说明 平台软件

    2024-02-08
    5
  • whisperX 语音识别本地部署

    whisperX 语音识别本地部署

    WhisperX 是一个优秀的开源Python语音识别库。 下面记录Windows10系统下部署Whisper 1、在操作系统中安装 Python环境 2、安装 CUDA环境 3、安装Annaconda或Minconda环境 4、下载安装ffmpeg 下载release-builds包,如下图所示 将下载的包解压到你想要的路径,然后配置系统环境:我的电脑-高级系

    2024-02-16
    6
  • 部署本地GPT

    部署本地GPT

    在现实生活中,很多公司或个人的资料是不愿意公布在互联网上的,但是我们又要使用人工智能的能力帮我们处理文件、做决策、执行命令那怎么办呢?于是我们构建自己或公司的本地专属GPT变得非常重要。 先看效果: 解方程,24小时家教。   支持手机访问,使用更方便!

    2024-01-17
    5
  • ChatGPT本地部署,学习记录

    ChatGPT本地部署,学习记录

    官网地址: Github:https://github.com/nomic-ai/gpt4all GPT4ALL 项目部署简易,但是在运行体验上一般,并且是只调用CPU来进行运算。 看官方文档介绍在嵌入式上有比较大的优势,但是目前个人对嵌入式方向接触不深,仅在本机部署使用。 本机配置 (CPU:i5-8400、显卡:1060、内存:8)

    2024-01-24
    4