🌹作者主页:青花锁 🌹简介:Java领域优质创作者🏆、Java微服务架构公号作者😄

🌹简历模板、学习资料、面试题库、技术互助

🌹文末获取联系方式 📝

在这里插入图片描述



前言

最近,DeepSeek凭借其先进的算法和卓越的能力,在人工智能领域迅速崭露头角,成为国内AI大模型发展的标志性产品。然而,随着用户量的暴增,DeepSeek的服务器频繁遭遇网络攻击,尤其是分布式拒绝服务(DDoS)攻击,导致服务中断,用户体验受到严重影响。在这种情况下,将DeepSeek部署到本地电脑成为了一个备受关注的解决方案。
本地部署不仅可以避免因网络波动或服务器过载导致的服务中断,还能更好地保护用户数据的隐私和安全。此外,本地部署还支持根据个人需求对模型进行定制化修改,进一步提升使用体验。虽然部署过程需要一定的技术基础,但通过Ollama等工具,普通用户也能较为轻松地完成。因此,越来越多的用户开始尝试将DeepSeek部署到本地电脑,以获得更稳定、更安全的使用体验。

文章概要

文章介绍了如何使用 Ollama 工具在本地化环境中部署 DeepSeek-R1 模型,并结合 Open-WebUI 提供更丰富的交互体验。

Ollama 简介

Ollama 是一个开源的本地化大模型部署工具,支持多种模型架构,提供与 OpenAI 兼容的 API 接口。
特点:

  • 轻量化部署:无需依赖云端服务。
  • 多模型支持:兼容 LLaMA、DeepSeek 等开源模型。
  • 高效管理:通过命令行工具实现模型的下载、加载和切换。
  • 跨平台支持:适用于 Windows、macOS 和 Linux 系统。

DeepSeek-R1 简介

DeepSeek-R1 是由深度求索公司开发的高性能 AI 推理模型,专注于数学、代码和自然语言推理任务。
核心优势:

  • 强化学习驱动:通过少量标注数据即可高效训练。
  • 长链推理(CoT):支持多步骤逻辑推理,逐步分解复杂问题。
  • 模型蒸馏:可将推理能力迁移到更小型的模型中。
  • 开源生态:遵循 MIT 开源协议,允许自由使用、修改和商用。

本地化部署

使用 Ollama 部署 DeepSeek-R1。

安装 Ollama

访问 Ollama 官网 或 Github 下载安装包。
下载完的ollama安装包,直接双击安装。
在这里插入图片描述
在这里插入图片描述

验证安装

打开Windows PowerShell终端。
在这里插入图片描述

在终端中运行以下命令验证安装:
如果安装成功,会显示ollama 的版本信息。

ollama --version

在这里插入图片描述

下载 DeepSeek-R1 模型

在ollama 官网,导航处选择【Models】,截止日期2025-02-10,第一位的就是deepseek模型(deepseek-r1)。如果没有,在搜索栏搜索即可。
在这里插入图片描述

选择模型下载

选择对应的模型来下载,1.5b、7b、8b、14b、32b、70b或671b,这里有很多版本可选,模型越大,要求电脑内存、显卡等的配置越高。
在这里插入图片描述

在Windows PowerShell终端下载

这里演示7b 的模型下载,选中【7b】,复制【ollama run deepseek-r1:7b】
在这里插入图片描述
在Windows PowerShell终端运行命令:ollama run deepseek-r1:7b
在这里插入图片描述

查看模型信息

下载完成后,可以使用以下命令查看模型信息

ollama list

在这里插入图片描述

在终端里体验效果

提出问题:使用HTML的canvas,画一个红色的三角形。
感受:对中文支持很友好,问题的回答,既有直接的答案,也有相关知识点的介绍。
在这里插入图片描述
在这里插入图片描述

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐