本地部署Deepseek(多种系统通用)

崧峻
原创
发布时间: 2025-06-10 02:13:00 | 阅读数 0收藏数 0评论数 0
封面
由于DeepSeek的火爆,**很多用户在使用时可能会遇到服务器繁忙的情况。**同时,本地化部署DeepSeek主要是为了提升使用的稳定性与安全性,满足用户对隐私保护和数据合规性的需求。本地部署能够避免网络波动和延迟,确保模型运行更加高效,同时将数据存储在本地,有效防止敏感信息外泄。
1

关于DeepSeek

DeepSeek(深度求索)是一家专注于实现AGI(通用人工智能)的中国科技公司,成立于2023年,总部位于杭州,并在北京设有办公室。该公司从成立以来,发布了多款语言模型:


  1. DeepSeek-R1系列
  2. 长上下文大模型,支持最高128K tokens的上下文窗口,在文本处理、信息检索等场景表现突出。
  3. 特点:高精度信息提取、多轮对话连贯性、支持复杂文档分析。

  4. DeepSeek Chat
  5. 通用对话模型,擅长逻辑推理、创意生成等任务,API接口已开放商用。

  6. 开源模型
  7. DeepSeek-MoE-16b:全球首个开源的混合专家模型,参数量160亿,性能接近Llama2-70B。
  8. DeepSeek-Coder:代码专用模型,支持338种编程语言,HumanEval评测超过GPT-3.5

应用场景

  1. 办公场景:合同审核、会议纪要生成
  2. 教育领域:教材解析、个性化辅导
  3. 娱乐创作:小说续写、短视频脚本生成
  4. 企业服务:知识库问答、行业数据分析


本地部署deepseek主要用到Ollama


2

安装Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,允许用户在本地机器上运行和部署大型语言模型。它设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。


  1. 输入网址 https://ollama.com/ 进入官网 官网如图1所示
  2. 点击如图2所示圈出的下载按钮
  3. 如图3所示选择对应的系统进行下载即可
  4. 下载的文件名为Ollama-darwin.zip,解压后得到一个羊驼图标的Ollama,正常安装(安装时选择move to Applications可以在启动台中找到), 安装完可以看到一个小羊驼图标。如图4图5所示
  5. 安装好之后在应用里长图6这样


3

安装大模型

  1. 返回Ollama网页 看左上角,选择Models,可以看到许多大模型,选择deepseek-r1 如图1所示 点击进去
  2. 如图2所示 蓝色圈出部分为模型版本 按照自己电脑情况来 我就先来最低的了,红色为命令直接点击复制终端运行即可
  3. 如图3所示 运行命令 等待下载完成
  4. 然后问他问题,就可以啦.如图4所示

windows 也是跟这个方法一样

4

如何删除大模型

输入该命令即可删除

ollama run deepseek-r1:1.5b


输入以下命令查看模型列表

ollama list


阅读记录0
点赞0
收藏0
禁止 本文未经作者允许授权,禁止转载
猜你喜欢
评论/提问(已发布 0 条)
评论 评论
收藏 收藏
分享 分享
pdf下载 下载