摘要:DeepSeek系列模型首发即支持昇腾平台,让用户能够在昇腾硬件和MindIE推理引擎上实现高效推理。

DeepSeek AI最新发布的多模态大模型Janus-Pro,以及之前发布的大型语言模型DeepSeek-R1、DeepSeek-V3及DeepSeek-V2,一经发布,就在AI领域引起了热烈反响,多项创新技术显著提升了模型的性能与效率。DeepSeek系列模型首发即支持昇腾平台,让用户能够在昇腾硬件和MindIE推理引擎上实现高效推理。

2025年2月4日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用,推理快速部署,带来更快、更高效、更便捷的AI开发和应用体验,欢迎广大开发者体验使用。

 

下面以Deepseek-V3为例,演示在昇腾社区如何高效获取模型及使用。

1、硬件要求

部署DeepSeek-V3模型需配置4台Atlas 800I A2(8*64G)服务器资源。

另:如需在线体验,可点击下方链接体验基于昇腾云的DeepSeek R1&V3推理服务:

DeepSeek-R1:https://r1.siliconflow.cn

DeepSeek-V3:https://v3.siliconflow.cn

2、模型调用实践

一、 权重转换

GPU:

 

NPU:

 

二、 加载镜像

在昇腾社区/开发资源下载适配DeepSeek-V3的镜像包:

mindie:1.0.T71-800I-A2-py311-ubuntu22.04-arm64

完成之后,请使用docker images命令确认查找具体镜像名称与标签。

 

三、 容器启动

提供的MindIE镜像预置了DeepSeek-V3模型推理脚本,从您信任的来源自行获取权重后,放置在从上述下载的模型代码的主目录下,修改模型文件夹属组为1001,执行权限为750,启动容器。

 

 

四、 服务化测试

配置服务化环境变量,expandable_segments-使能内存池扩展段功能,即虚拟内存特性。

 

修改服务化参数

 

拉起服务化

 

图片出现“Daemon start success!”,则认为服务成功启动。

更深入了解DeepSeek系列模型在昇腾上的使用方法及指导文档,可登录昇腾社区模型库专区学习了解。

更多DeepSeek模型获取链接可参考:

DeepSeek-R1

https://www.hiascend.com/software/modelzoo/models/detail/68457b8a51324310aad9a0f55c3e56e3

DeepSeek-V3:

https://www.hiascend.com/software/modelzoo/models/detail/678bdeb4e1a64c9dae51d353d84ddd15

Janus-Pro

https://www.hiascend.com/software/modelzoo/models/detail/ffe1a0f4e8ba43aeb989251a3f0308e9

点击关注,第一时间了解华为云新鲜技术~

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐