InternLM2.5-20B-Chat 正式上线 SiliconCloud 平台

经推理加速的 InternLM2.5-20B-Chat 已正式上线 SiliconCloud 平台。开发者们无需自行开发和部署,直接通过平台就可以轻松调用 API 服务实际应用。

API 调用代码:

from openai import OpenAI

client = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.siliconflow.cn/v1")

response = client.chat.completions.create(
    model='internlm/internlm2_5-20b-chat',
    messages=[
        {'role': 'user', 'content': "抛砖引玉是什么意思呀"}
    ],
    stream=True
)

for chunk in response:
    print(chunk.choices[0].delta.content, end='')

相比之前上线的 InternLM2.5-7B-Chat,InternLM2.5-20B-Chat 的综合性能更为强大,能够轻松应对更复杂的应用场景。特别是在接入火爆社区的 MindSearch 多智能体框架后,InternLM2.5-20B-Chat 能自主进行互联网搜索,并从上百个网页中高效整合信息。

在线体验传送门:

https://cloud.siliconflow.cn/playground/chat/17885302561

一起来直观感受下 InternLM2.5-20B-Chat 在 SiliconCloud 上的惊人生成速度与复杂推理效果。

SiliconCloud 介绍

SiliconCloud 是硅基流动推出的一站式大模型云服务平台。通过提供更快、更便宜、更全面的主流开源大模型 API 服务,SiliconCloud 希望能打造“大模型 Token 工厂”,帮助开发者真正实现“ Token 自由”。目前,平台已上架多种大语言模型、向量&重排序模型、包含图片/视频生成的多模态大模型,用户可自由切换适合不同应用场景的模型。

InternLM 2.5 介绍

在 2024 年 7 月 4 日的 WAIC 科学前沿主论坛上,上海人工智能实验室推出了书生·浦语系列模型的全新版本——InternLM2.5。相较于上一代,InternLM2.5 全面增强了在复杂场景下的推理能力,支持 1M 超长上下文,能自主进行互联网搜索并从上百个网页中完成信息整合。

书生·浦语系列大模型主页:

https://internlm.intern-ai.org.cn

Hugging Face 主页:

https://huggingface.co/internlm

ModelScope 主页:

https://www.modelscope.cn/organization/Shanghai_AI_Laboratory?tab=model

开源链接:

https://github.com/InternLM/InternLM


特别预告:

在书生大模型实战营第 3 期的彩蛋岛环节,我们还将上线以下课程,带领大家更好地使用 SiliconCloud InternLM API。

  • 【手把手带你使用 InternLM 实现谁是卧底游戏(基于 SiliconCloud InternLM API)】

  • 【如何使用纯 CPU 将 MindSearch 部署到 HuggingFace(基于 SiliconCloud InternLM API)】

书生大模型实战营第 3 期正在火热进行中,欢迎大家识别下方二维码或点击链接(https://www.wjx.cn/vm/PvefmG2.aspx?udsid=832803)报名参与学习!

  • 12
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值