腾讯元宝接入DeepSeek-R1:双模型+联网搜索,AI应用新升级

刚刚,腾讯主力AI应用「元宝」宣布接入 Deepseek-R1满血版!现在,打开腾讯元宝,用户可以在模型选择框中自由切换 混元模型 和 满血版DeepSeek-R1。同时,切换到 Deepseek-R1 的腾讯元宝,还新增了 联网搜索 功能。这使得腾讯元宝不仅支持双模型,还可以实现可联网搜索,整合了微信公众号、视频号等腾讯生态中的信息源,真正实现了 “钮祜禄·腾讯元宝” 的强大功能!

图片

值得注意的是,腾讯在推出 腾讯云支持 DeepSeek 能力开发小程序 和 ima 接入 DeepSeek-R1 能力 后,继续深化与 DeepSeek 的合作,进一步扩展其 AI 应用的功能和体验。

联网搜索+Deepseek-R1,腾讯元宝全面升级

腾讯元宝表示,此次升级的目标是为了提供更加稳定、实时、全面和准确的答案。用户使用方法也非常简便,打开腾讯元宝的网页或 iOS 端 App,便可以在对话框下方自由选择使用 混元模型 或 DeepSeek-R1 模型。当选择 DeepSeek-R1 模型时,系统会进一步提供一个选项,允许用户选择是否启用联网功能。

图片

切换到R1模型时,会再出现一个选项,自由选择是否让它联网。

图片

据介绍,腾讯元宝接入的是 DeepSeek-R1-671B 版本,广受用户称为 “R1满血版”,因为它是 R1 系列中能力最完整、效果最优的版本。此外,腾讯元宝的联网搜索功能覆盖了 微信公众号 等腾讯生态内容及互联网的权威信源,从而使得答案的准确性大大提升。这一优势也正是腾讯元宝与其他 AI 应用的显著差异化竞争力。

Deepseek-R1联网效果测试

近,第三方评测平台 SuperClue 发布了名为《第三方平台DeepSeek-R1稳定性平层总榜》的评测报告,对接入 DeepSeek-R1 的多个平台进行了多维度评估,包括 完整回复率准确率推理耗时 等指标。南阳基于该评测标准,对腾讯元宝(使用 DeepSeek-R1+联网)进行了一些提问,并从多个维度对其响应进行评估。

问题一: 奥特曼最新一次提到 DeepSeek 时说了哪些内容?

这个问题主要考察了腾讯元宝的联网搜索能力。元宝首先进行了深度思考:

图片

然后引用了 7篇文章 作为参考资料。经南阳核实,7篇引用的文章均来自微信公众号

图片

而且其中的第1篇和第3篇正是量子位之前发布的实时推文。

图片

可以看出,元宝的联网效果相当到位,确保了所引用的信息来源符合“最新”的要求。

最终,元宝给出的答案如下:

图片

问题二: “有一天,一个女孩参加数学考试只得了38分……”

这一问是经典的 海龟汤 问题,考察的是元宝接入 DeepSeek-R1 后的推理能力。

元宝没有直接回复“服务繁忙”,而是启用了推理能力:

图片

最终给出了合理的推理答案:

图片

推理与响应速度测试

突然许愿!

希望以后有朋友做个海龟汤benchmark,来考察推理模型们的能力。

认真脸.jpg

图片

经过测试,腾讯元宝切换到 DeepSeek-R1 后,推理速度依然不慢,几乎每次都能迅速作答。即便是反复进行复杂的推理,元宝的反应依然十分快速和准确。

可以从下面这个动图感受一下它的思考和输出速度:

图片

腾讯方面解释称,元宝得益于 腾讯云的强大算力,不仅保障了服务的稳定性,还专门针对推理效率进行了优化,大幅提升了模型的响应速度,从而提供更优的用户体验。

腾讯拥抱DeepSeek,全面开放合作

腾讯元宝并非第一个接入 DeepSeek 的第三方平台。DeepSeek-R1 自从农历新年前发布后,凭借其卓越的效果、性价比以及开源优势,迅速在全球范围内吸引了大量用户。连奥特曼都在最近的访谈中表示,他每天醒来都担心会被 DeepSeek 等后起之秀超越。

DeepSeek-R1 的开源和高性价比吸引了大量用户的涌入,尽管很多用户因为算力限制只能运行较小的模型或无法联网,影响了体验。不过,随着第三方平台的接入,越来越多的用户可以通过不同渠道使用 DeepSeek 的强大功能。

腾讯,作为最早一批全面接入 DeepSeek-R1 的大平台之一,不仅在产品中为用户提供了智能对话和文本生成等功能,还帮助更多小程序开发者实现了基于 DeepSeek-R1 的能力接入。2月11日,腾讯云宣布了 小程序基础库的更新,开发者只需输入 3 行代码即可将 DeepSeek-R1 集成到小程序中,轻松实现智能对话等功能。而且,云开发的新用户首月套餐免费,还赠送 100 万 token。

图片

同一天,腾讯旗下的 ima 也更新了版本,支持 DeepSeek-R1 模型,用户在使用 搜、读、写和知识库 等功能时,可以自由选择腾讯的混元大模型或 DeepSeek-R1 模型。Windows端、Mac端以及 ima 知识库小程序均可体验这一新功能。

图片

腾讯此前也一直在大模型领域积极布局,支持开源并投资了多家大模型公司。然而,在 DeepSeek 之前,腾讯并未如此全面地拥抱第三方模型。可以看出,这不仅是 DeepSeek 的胜利,也是 开源的胜利。DeepSeek 的开源策略使得更多玩家能够放心使用并贡献自己的力量,从而推动了整个生态的发展。

最后,这也是腾讯在 AI 领域战略上的一种体现——腾讯选择拥抱那些 最佳的用户体验模型,不论它们是否是自家研发或投资的。这种“大气”的战略使腾讯在 AI 浪潮中站得更高,赢得了更多用户的信任和支持。

### 腾讯部署 Deepseek-R1模型的方法 #### 使用腾讯云 Cloud Studio 部署 DeepSeek-R1:14B 模型腾讯云Cloud Studio环境中,可以通过简单的命令快速启动DeepSeek-R1模型。具体来说,在打开终端之后(可通过快捷键`Ctrl+~`),只需执行如下指令即可完成下载与运行工作: ```bash ollama run deepseek-r1:14b ``` 此方法适用于希望迅速测试或验证概念的开发者群体[^1]。 #### 利用腾讯云 HAI 服务器进行高效部署 对于更复杂的生产环境需求,则可以借助于腾讯云提供的高性能计算资源——HAI服务器来实现更为稳定可靠的部署方案。整个流程大约耗时五分钟,主要涉及以下几个方面的工作: - **服务器准备**:确保所选实例规格满足最低硬件要求; - **软件安装**:按照官方文档指引配置必要的依赖库及工具链; - **模型加载**:上传预训练权重文件至指定路径下,并调整相应参数设置以便顺利加载目标架构版本; - **接口封装**:编写API服务端代码片段用于接收外部请求并向用户提供预测结果反馈; 上述步骤能够帮助技术人员实现在本地环境下对DeepSeek-R1模型的有效调用[^2]。 #### 近乎零成本体验云端部署全攻略 除了以上两种方式之外,还有专门针对初创企业个人研究者的低成本甚至免费解决方案可供选择。这类项目通常会集成多种流行的深度学习框架以及优化后的推理引擎,从而降低初次接触者的学习曲线技术门槛。同时也会提供丰富的案例分析报告供参考借鉴,促进更多创应用场景落地开花[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值