02 轻松玩转书生·浦语大模型趣味Demo

        InternLM 是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。基于InternLM训练框架,上海人工智能实验室已经发布了两个开源的预训练模型: InternLM-7B InternLM-20B
        Lagent 是一个轻量级、开源的基于大语言模型的智能体 (agent) 框架,用户可以快速地将一个大语言模型转变为多种类型的智能体。通过 Lagent 框架可以更好的发挥 InternLM 模型的全部性能
        浦语·灵笔是基于书生·浦语大语言模型研发的视觉·语言大模型,有着出色的图文理解和创作能力,使用浦语·灵笔大模型可以轻松的创作一篇图文推文。

        项目Github网址:InternLM/InternLM: InternLM has open-sourced 7 and 20 billion parameter base models and chat models tailored for practical scenarios and the training system. (github.com)

        项目官网:书生·浦语 (intern-ai.org.cn)

        视频教程:轻松玩转书生·浦语大模型趣味Demo_哔哩哔哩_bilibili

        对应文档:https://github.com/InternLM/tutorial/blob/main/helloworld/hello_world.md


目录

1 InternLM-Chat-7B 智能对话 Demo

1.1 终端demo

1.2 网页demo

2 Lagent 智能体工具调用 Demo

3 浦语·灵笔图文创作理解 Demo

3.1 图文创作功能

3.2 多模态对话功能


1 InternLM-Chat-7B 智能对话 Demo

        通过单一的代码库,InternLM 支持在拥有数干个 GPU 的大型集群上进行预训练,并在单个 GPU 上进行微调,同时实现了卓越的性能优化。在 1024 个 GPU 上训练时,InternLM 可以实现近 90% 的加速效率.
        InternLM-7B 包含了一个拥有 70 亿参数的基础模型和一个为实际场景量身定制的对话模型。该模型具有以下特点:
        1. 利用数万亿的高质量 token 进行训练,建立了一个强大的知识库
        2.支持 8k token 的上下文窗口长度,使得输入序列更长并增强了推理能力。

        这里使用internlm-chat-7b进行展示其简单代码生成和逻辑思考能力:

1.1 终端demo

1.2 网页demo

        在配置了ssh公钥之后,一个网页demo如图,我的输入是帮我写一个感人的故事:


2 Lagent 智能体工具调用 Demo

        Lagent 是一个轻量级、开源的基于大语言模型的智能体 (agent) 框架,用户可以快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能架构:

        我们将使用 InternStudio 中的 A100(1/4) 机器、InternLM-7B-Chat 模型和 Lagent 框架部署一个智能工具调用 Demo。

        Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。通过 Lagent 框架可以更好的发挥 InternLM 的全部性能。
        如图所示,简单问题可以进行处理。具体逻辑是由模型生成一段处理的python代码并调用pythoninterpreter插件进行运行最后输出结果。

        但是需要注意的是其正确性在逻辑较多时难以保证:


        结果与我的需求相悖。


3 浦语·灵笔图文创作理解 Demo

        浦语·灵笔是基于书生·浦语大语言模型研发的视觉-语言大模型,提供出色的图文理解和创作能力具有多项优势:
        1.为用户打造图文并貌的专属文章。
        2.设计了高效的训练策略,为模型注入海量的多模态概念和知识数据,赋予其强大的图文理解和对话能力。

3.1 图文创作功能

        利用网页demo,我们让模型创作图文并茂的《又见敦煌》文章,右侧的edit可以按照喜欢选择相关图片:

        用户的输入有多种超参数可选,并同时支持中英文:

        文件可下载保存为流行的markdown格式。

3.2 多模态对话功能

        我的输入图片如图:

        是出自综述论文《A Survey of Large Language Models》

        具体内容是OpenAI公司产品推出的时间线和这件的关系。可以看出模型可以简单理解大致内容,但是一些具体细节,模型依然无法理解:

        总而言之,InternLM和Lagent提供了强大而灵活的框架,使得大型语言模型的训练和应用变得更加高效和便捷。InternLM的7B和20B模型展示了在处理大规模数据时的出色性能和扩展能力。通过Lagent框架,用户可以轻松地将这些高性能模型转化为具有多样化功能的智能体,从而在各种实际应用中发挥其潜力。

        这些技术的发展不仅是技术进步的体现,也为未来人工智能的发展方向提供了新的思路和可能性。随着这些模型和框架的不断完善和优化,我们可以期待在未来看到更多创新的应用和服务,进一步推动人工智能技术的发展和普及。

  • 18
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值