Logo

告别云端!手把手教你用 DeepSeek+ Dify 打造专属本地 AI 助手

avatar admin 14 Feb 2025

还在为AI助手的隐私问题担忧?还在为deepseek网页版经常服务器繁忙而头疼?拥有一个完全属于自己,随时待命的智能伙伴?今天,我们就来教你如何摆脱对云服务的依赖,在自己的电脑上部署 DeepSeek R1 模型,并集成 Dify 知识库,打造一个既强大又安全的本地 AI 助手!

一、DeepSeek R1:开源力量,触手可及的强大 AI

DeepSeek R1 是由 DeepSeek 公司推出的一系列开源语言模型,凭借其卓越的性能和开放性,在AI领域备受瞩目。R1 系列提供了不同参数规模的模型,可以满足各种各样的应用需求。

  • DeepSeek LLM 家族:7B、14B、32B、70B,甚至还有 671B!

    这些数字代表着模型的大小和复杂度。一般来说,参数越多,模型就越聪明,能更好地理解和处理复杂的问题。但同时,对电脑的硬件要求也会更高。

    想知道每个版本的具体大小吗?可以去 ollama 官网看看,所有 DeepSeek R1 的模型版本都可以在这里找到,并且标注了模型的大小。

    DeepSeek R1 模型版本

  • 选择困难症?不同 R1 模型适用场景对比:

模型 适用场景 硬件资源要求 优势 预计成本
R1 Distill Qwen 1.5B 资源有限的环境,如原型设计、特定任务(数学推理)、嵌入式应用、IoT 设备。 至少 8GB 内存,无需独立显卡 易于上手,硬件要求低,在小型模型中数学和推理能力突出,性价比高。 2000-4000元
R1 Distill Qwen 7B 需要一定推理能力,但硬件资源有限的场景,如本地部署、轻量级应用。 建议 8GB 显存的 GPU (如 RTX 3070),推荐 16-32GB 内存 兼顾性能和资源消耗,擅长数学、科学和编码等复杂问题,可用于商业用途,支持开源协作,可以通过知识提炼提高效率。 7000-10000元
R1 Distill Llama 8B 本地部署,对成本效益有要求的商业用途,需要一定推理能力,但硬件资源有限的场景。 建议 8GB 显存的 GPU,推荐 16-32GB 内存 兼顾性能和资源消耗,擅长数学、科学和编码等复杂问题,可用于商业用途,支持开源协作,可以通过知识提炼提高效率,在特定推理任务上优于 Llama。 7000-10000元
R1 Distill Qwen 14B 本地部署,客户支持自动化、教育材料生成、营销文案生成、软件开发辅助等。 建议 12-24GB 显存的 GPU (如 RTX 3080),推荐 32-64GB 内存 性能较高,能快速处理和生成文本数据,支持多语言,能耗相对较低,支持多种数据类型,易于通过 API 集成到各种应用中,可针对特定任务或领域进行微调,注重伦理和安全标准。 17000-25000元
R1 Distill Qwen 32B 需要较高性能,且希望在资源消耗和性能之间取得平衡的场景。 建议 12-24GB 显存的 GPU,推荐 64-128GB 内存 在多个基准测试中优于 OpenAI 的 o1-mini,在密集模型中实现了新的技术水平,准确性高,比 Llama 快。 30000+
R1 Distill Llama 70B 需要强大推理能力,同时希望模型具有较高效率的场景,例如复杂的数学和编码任务。 建议 48GB 以上显存的 GPU,推荐 128GB 以上内存 利用知识蒸馏在提高效率的同时保持强大的推理能力,在复杂数学和编码任务中表现出色,在各种基准测试中表现出强大的性能,精度和效率之间实现了独特的平衡,能够胜任广泛的自然语言处理任务。 50000+
R1 671B 需要顶尖性能,例如数学、编码和复杂推理等任务。 需要大量的计算资源,可能需要多个高端 GPU (例如 A100) 或专门的 AI 计算平台(如 SambaNova Cloud)。 匹配 OpenAI 的 GPT-4 等领先模型的性能,在数学、编码和复杂推理等任务中表现出色 [1],在推理模型中是开源模型,在某些部署中具有前所未有的效率。 个人部署不适合
  • 以上成本列为在个人电脑部署deepseek的大致参考,实际情况会有出入,请以实际为准
  • 企业用户可以选择云厂商租用云资源进行部署

二、个人助手 7B 模型是你的最佳选择!

考虑到我们是在个人电脑上使用,并且希望兼顾性能和资源消耗,DeepSeek LLM 7B 模型会是比较合适的选择。它能在你的电脑上流畅运行,满足日常使用需求。

三、三步搞定!用 Ollama 部署 DeepSeek R1 模型

Ollama 可以让你轻松在本地运行各种大型语言模型,就像 Docker 一样方便!

  1. 安装 Ollama:

    • 访问 Ollama 官网(https://ollama.com/)下载对应你电脑系统的安装包。
    • 双击安装包,按照提示完成安装。
  2. 下载并运行 DeepSeek R1 模型:

  • 打开终端(Mac)或命令行界面(Windows),输入以下命令并回车:

    ollama run deepseek-r1:7b
    
  • Ollama 会自动下载 DeepSeek R1 模型,下载完成后,你就可以直接在终端里和它对话了!

    Ollama 运行 DeepSeek R1

四、让 AI 更懂你:集成 Dify 知识库

光有 AI 模型还不够,让它学习你的知识库,才能成为真正懂你的助手!Dify 可以帮你轻松管理知识库,并将其与 DeepSeek R1 模型连接起来。

  1. 安装 Dify 社区版:

    • 访问 Dify GitHub 项目地址,按照以下步骤拉取代码并安装:
    git clone https://github.com/langgenius/dify.git
    cd dify/docker
    cp .env.example .env
    docker compose up -d
    
  2. 将本地 DeepSeek R1 接入 Dify:

    • 打开 Dify 平台,点击右上角 头像 → 设置 → 模型供应商 ,选择 Ollama,然后点击“添加模型”。

      Dify 添加 Ollama 模型

  3. 打造你的专属知识库:

    • 在 Dify 应用中,点击“知识库”选项卡。
    • 点击“新建知识库”。
    • 点击“上传文件”按钮,上传你的知识库文件。Dify 支持多种文件格式,如 TXT、PDF、Markdown 等。

      Dify 上传知识库文件

  4. 测试你的知识库问答:

    • 创建一个新的 Dify 应用。
    • 将你的知识库关联到这个应用。
    • 配置模型和相关参数。
    • 输入问题,测试知识库问答效果,看看你的 AI 助手是否理解了你的知识!

      Dify 知识库问答测试

五、总结:你的专属 AI 助手,触手可及!

通过今天的教程,你已经成功在本地部署了 DeepSeek R1 模型,并集成了 Dify 知识库。现在,你拥有了一个完全属于自己的、安全可靠的 AI 助手!快去尝试一下,让它成为你工作和生活中的得力伙伴吧!

Tags
deepseek
Dify
个人助手
Contáctenos