- 博客(9)
- 收藏
- 关注
原创 L1 第六关 OpenCompass 评测 InternLM-1.8B 实践
列出所有跟 InternLM 及 C-Eval 相关的配置。numpy版本导致继续报错,更换为版本1.26.0。小bug,但还是打印出了配置。直接用之前的开发机了。
2024-09-23 18:14:37 206
原创 L1 第五关 XTuner 微调个人小助手认知
为了训练过程中能够实时观察到模型的变化情况,XTuner 贴心的推出了一个 evaluation_inputs 的参数来让我们能够设置多个问题来确保模型在训练过程中的变化是朝着我们想要的方向前进的。在 PART 3 的部分,由于我们准备的数据集是 JSON 格式的数据,并且对话内容已经是 input 和 output 的数据对,所以不需要进行格式转换。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。
2024-09-23 09:53:41 518
原创 L1 第四关 llamaindex+Internlm2 RAG实践
任务要求:基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前InternLM2-Chat-1.8B模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力,截图保存。整理了一个md文件并上传,描述了最近发生的事情(chatGPT生成)运行模型结果如下:(开始说胡话~)
2024-09-22 12:36:00 231
原创 L1 第三关 浦语提示词工程实践
任务要求:利用LangGPT优化提示词,使LLM输出正确结果。完成一次并提交截图即可。(1) 利用已有的提示词自动化地生成符合LangGPT框架的结构化提示词。(2)利用生成的提示词进行测试。
2024-09-18 20:59:14 157
原创 L1 第一关 书生大模型全链路开源体系
此外,该体系还探讨了大模型的局限性,并提出了以LLM为核心的智能体解决方案,包括轻量级智能体框架Lagent和多模态智能体工具箱AgentLego,以增强模型的交互和应用能力。该体系从大模型的重要性和AI发展历程入手,详细介绍了从轻量级到重量级的模型开源历程,强调了InternLM-20B模型在参数效率上的优势。总体而言,书生·浦语大模型全链路开源体系为大模型的研究、开发和应用提供了一个全面和深入的视角,展示了如何通过开源合作和技术创新,推动人工智能技术的边界。
2024-09-17 13:46:27 198
原创 第二关 Python基础
这样之后使用 pyd 命令(你可以自己命名) 替代 python 就能在命令行中起debug了,之前的debug命令就变成了。先在终端中发起debug server,然后再去vscode debug页面单击一下绿色箭头开启debug。Vscode连接InternStudio debug笔记。case1: debug单个文件。case2:使用命令行debug。wordcount函数。
2024-09-17 10:49:52 331
原创 第一关 Linux基础
(symbolic link),硬链接的意思是一个档案可以有多个名称,而软链接的方式则是产生一个特殊的档案,该档案的内容是指向另一个档案的位置。硬链接是存在同一个文件系统中,而软链接却可以跨越不同的文件系统。命令是Linux系统中一个强大的文件搜索工具,它可以在指定的目录及其子目录中查找符合条件的文件或目录,并执行相应的操作。但是如果我们是要使用模型的话,这种操作会占用大量的磁盘空间,所以我们一般使用。命令,这个就和windows的快捷方式一样。(1) 创建 hello_world.py 并运行。
2024-09-17 10:46:35 410
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人