深度UOS AI 携手 DeepSeek-R1 模型,全面支持离线与在线双模式-大浪资讯

admin72025-02-07 20:16:09

深度UOS AI 携手 DeepSeek-R1 模型,全面支持离线与在线双模式

领先技术助力智能革命,离线与在线双模式全面支持

   2月7日,深度操作系统发布消息称,UOSAI现已兼容并接入了DeepSeek-R1端侧模型。官方提供了「离线部署」和「在线接入」两种方法,方便用户在UOSAI中使用DeepSeek-R1模型。用户可以根据自己的设备状况及网络环境等因素自行选择合适的方式。

   方法一:使用 deepin 官方适配的 UOS AI DeepSeek-R1 1.5B 模型离线部署

   方法二:使用 UOS AI 的自定义模型接口在线接入 DeepSeek-R1 API

   注:离线部署方式适用于deepin23和deepin25Preview系统;在线接入方式则兼容UOSV20、deepin20.9、deepin23以及deepin25Preview系统。具体情况如下:

   若您正在使用 deepin 23,可从应用商店更新 UOS AI 至最新版。

   注:在初次使用Deepin中的UOSAI时,根据界面提示勾选用户使用协议并免费领取试用账号后,便可以立即体验到UOSAI的最新版本。这种设计简化了新用户的入门流程,使得用户体验更加顺畅。然而,这样的便捷也要求用户在短时间内快速了解并同意一系列复杂的条款,这可能会让一些用户感到困惑或担忧。因此,在未来的设计中,可以考虑提供更详细的解释和更友好的用户界面,以帮助用户更好地理解和接受这些条款。

   若您正在使用 deepin 25 Preview,请通过以下命令升级 UOS AI 至最新版。

   sudo apt update

   sudo apt install uos-ai deepin-modelhub uos-ai-rag

   更新完成后,打开 UOS AI 的「设置」选项,在「模型配置-本地模型」中选择「向量化模型插件-安装 / 更新」,随后将自动跳转至应用商店界面,点击安装 / 更新即可。

   UOS AI 的模型后端驱动框架是基于 llama.cpp,大家可直接在魔搭社区找到 DeepSeek-R1 的 GGUF 版本。

   在这里,我们以1.5B模型为例,这是一种中等规模的模型,对硬件的要求并不高,使用普通的CPU就能实现顺畅的推理。这样的模型对于广大用户来说非常友好,因为它降低了使用深度学习技术的门槛。对于那些希望尝试最新AI技术但又受限于硬件条件的个人或小型企业而言,这无疑是一个福音。随着技术的进步,我们期待未来能有更多类似的模型,让AI的应用更加普及和便捷。

   已适配 UOS AI 的 DeepSeek-R1 1.5B 模型的下载地址如下:

   百度网盘:https://pan.baidu.com/s/1-786vFU4dunpdproiOHdbQ?pwd=zxxw

   123 网盘:https://www.123865.com/s/XXsfjv-Jjcph

   123 网盘(备用):https://www.123684.com/s/XXsfjv-Jjcph

   夸克网盘:https://pan.quark.cn/ s / edbf721fefaf

   将模型文件下载完成后,打开文件管理器,直接进入如下目录:

   注:若没有 deepin-modelhub 文件夹以及下面的 models 文件夹,可以自己手动创建该文件夹。

   进入 models 文件夹,将下载完成的模型文件夹解压后,直接复制到刚刚创建的文件夹路径中,注意检查路径不要有多的名称。模型完整路径如下:

   /home/ 用户名/.local/ share / deepin-modelhub / models / DeepSeek-R1-1.5B / gguf   #其中用户名替换为自己的计算机用户名

   经过上述步骤,再次打开UOSAI界面时,用户便可以手动选择使用DeepSeek-R1-1.5B模型。这一改进无疑为用户提供了更多的灵活性和自主性,使得他们可以根据具体需求来选择最适合的模型。这不仅提升了用户体验,也展示了技术进步在实际应用中的具体体现。希望未来能看到更多类似的优化措施,让技术更好地服务于大众。

   以下是一个简单的 DeepSeek-R1 运行示例:

   访问DeepSeek官网,注册或登录账号后,创建并获取APIkey。如果遇到因服务器压力等原因无法正常访问上述页面的情况,还可以通过其他途径来获取APIkey。 在当今信息爆炸的时代,获取准确的数据变得尤为重要。DeepSeek提供的APIkey不仅能够帮助我们更高效地获取信息,还能确保我们在处理数据时更加便捷与安全。对于新闻工作者而言,这无疑是一个重要的工具,它能让我们更快地找到所需资料,提高工作效率,从而更好地服务于读者。同时,也提醒各大平台应加强服务器建设,以应对日益增长的数据需求,保证用户可以流畅访问和使用服务。

   本文将以硅基流动为例,在完成注册和登录操作后,进入API密钥管理页面,创建并获取API密钥。

   在调整UOSAI的「设置」选项时,可以发现「模型配置」中的新功能——「在线模型-添加」,这引导用户进入UOSAI的添加模型界面。这一新增设的功能无疑为用户提供了更大的灵活性,使他们能够根据需要轻松地添加或更换在线模型。这样的改进不仅提升了用户体验,也反映了开发者对用户需求的深刻理解与快速响应。通过这种方式,UOSAI正在不断优化其平台,以满足日益增长的专业需求和多样化的使用场景。

   完成添加窗口中的内容填写,并点击确定即可,本例中使用到的信息参考如下:

   账号名称:自定义

   模型类型:自定义

   API key:粘贴 Step 1 中所复制的 API 密钥

   模型名:deepseek-ai / DeepSeek-R1

   请求地址:https://api.siliconflow.cn/ v1 / chat / completions

   填写完成后并确认提交,您就可以在UOSAI中选用DeepSeek-R1模型了。

   理论上,只要您的硅基流动账户余额充足,其模型仓库中的所有模型都可以在UOSAI中进行配置和调用。您只需要在前述配置方法的模型名部分填写相应的完整模型名称,其他步骤则无需更改。

   需要注意的是,由于网络状况和用户访问量的影响,在线大模型有时可能会出现访问缓慢、超时或无法访问的情况。建议多次尝试即可。

   由于目前的适配问题,DeepSeek深度思考的内容与对话内容尚未完全分离,但这并不影响其正常使用。UOSAI团队将会在后续的更新中尽快优化这一体验。