# 在人工智能领域中,通过利用大量的数据训练得到的,拥有数十亿至数千亿级别参数的模型。这些模型不仅拥有强大的数据处理能力,而且在多样化的任务中都能展现出强大的性能,从而证明了它们卓越的泛化性。
#介绍了InternLM预训练模型,这是一个在多个领域内展现出优异性能的大型模型,代表了当前AI技术的前沿
此外,我们还探讨了基于书生·浦语大语言模型开发的视觉·语言大模型,以及lagent框架,后者使得大模型能够部署为智能体,进一步扩展了其应用范围。
#
课程的实际操作部分(Demo)围绕智能体和图文创作进行。
浦语·灵笔图文创作理解demof
通过实际案例展示了如何利用lagent框架将大模型部署为智能体
课后作业(基础作业)
1.使用 InternLM-Chat-7B 模型生成 300 字的小故事(需截图)。
2.熟悉 hugging face 下载功能,使用 huggingface_hub
python 包,下载 InternLM-20B
的 config.json 文件到本地(需截图下载过程)。
进阶作业(可选做)
- 完成浦语·灵笔的图文理解及创作部署(需截图)
- 多模态对话
- 图文创作(不知道是否是网络原因一直没有输出结果)
- 完成 Lagent 工具调用 Demo 创作部署(需截图)