- 博客(13)
- 收藏
- 关注
原创 书生浦语第七次作业
在创建开发机界面选择镜像为 Cuda11.7-conda,并选择 GPU 为10% A100。 解压评测数据集到 data/ 处,将会在 OpenCompass 下看到data文件夹,查看支持的数据集和模型,列出所有跟 InternLM 及 C-Eval 相关的配置,将会看到下图确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第
2024-04-24 22:02:20 261
原创 书生浦语第六次作业
在等待 RTMDet-Large 权重下载并推理完成后,我们就可以看到如下输出以及一张位于 /root/agent 名为 road_detection_direct.jpg 的图片.a. 这四步继承 BaseTool 类;b.修改 default_desc 属性(工具功能描述);c.如有需要,重载 setup 方法(重型模块延迟加载);d.重载 apply 方法(工具功能实现)。MagicMaker 是汇聚了优秀 AI 算法成果的免费 AI 视觉素材生成与创作平台。
2024-04-24 20:43:39 202
原创 书生浦语第四次作业
由于前面进行了XTuner安装,可以直接进行下一步在Pretrain阶段,我们会使用大量的图片+简单文本(caption, 即图片标题)数据对,使LLM理解图像中的普遍特征。即,对大量的图片进行粗看。
2024-04-24 18:57:03 466
原创 书生浦语大模型第五节课作业
LMDeploy不仅支持运行InternLM系列大模型,还支持其他第三方大模型。可以从Modelscope,OpenXLab下载相应的HF模型,下载好HF模型,下面的步骤就和使用LMDeploy运行InternLM2一样。从InternStudio开发机上下载模型,首先进入一个你想要存放模型的目录,本教程统一放置在Home目录。然后执行指令由开发机的共享目录软链接或拷贝模型执行完指令后,可以运行“ls”命令。首先保持不加该参数(默认0.8),运行1.8B模型此时显存占用为7856MB。
2024-04-12 14:43:37 409 1
原创 书生浦语大模型第三次作业
通过,我分别上传了书生浦语大模型文档以及自问自答形式的茴香豆文档,然后从下图中可以看到茴香豆可以根据文档进行摘要以及高效回答问题。
2024-04-08 17:39:42 219 1
原创 书生浦语大模型趣味Demo第二节课作业
配置基础环境运行环境命令,使用 git 命令来获得仓库内的 Demo 文件Lagent 的特性总结如下:流式输出:提供 stream_chat 接口作流式输出,本地就能演示酷炫的流式 Demo。接口统一,设计全面升级,提升拓展性,包括:Model,Action,Agent文档全面升级,API 文档全覆盖。
2024-04-04 16:57:23 331 1
原创 书生浦语大模型趣味Demo第二节课笔记
本节课主要从实战部署 InternLM2-Chat-1.8B和优秀作品八戒-Chat-1.8B,以及实战进阶 运行Lagent智能体Demo和灵笔 InternLM-XComposer2四个方面来进行讲解的。
2024-04-04 16:13:29 224
原创 书生浦语大模型第一节课总结及IternLM2技术报告
通用大模型成为人工智能发展趋势,书生浦语大模型2.0提供不同尺寸和类型的模型,支持多语言和多模态任务。
2024-03-31 18:57:20 968 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人