一、AI 模型部署在云端服务
将 DeepSeek 模型部署于云端服务,用户便能避开官网访问限制,直接依托云端算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。凭借平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案。

云端高性能应用服务已支持 DeepSeek-R1 模型预装环境和 CPU 算力,只需简单的几步就能调用 DeepSeek-R1 模型。可以体验模型能力。
选择一个体验使用。

点击算力连接,选择 ChatbotUI 即可快速体验 DeepSeek-R1。

点击后跳转到的是 Ollama 对应的可视化界面,可以选择 14B 进行体验。

同样也可以选择算力连接下的 JupyterLab。里面已经预装了 Ollama 环境,所以执行命令安装模型即可。
点击进行命令终端,输入如下指令:
ollama run deepseek-r1:14b
下载完成后即可进行体验。

二、设计个人网页
复制以下提示词到 DeepSeek 对话框:
请帮我设计一个个人网页,要求:使用 HTML,响应式设计,适配手机,包含以下板块:个人简介、技能特长、项目经历、联系方式,风格要现代简约,配色要专业大气。请提供完整代码。

生成完成后,点击下载按钮,输入文件名并保存。





