- 博客(8)
- 收藏
- 关注
原创 书生大模型实战营(第3期)闯关记录(基础岛-OpenCompass评测实践)
确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过 run.py 直接运行它。
2024-08-18 01:33:53 343
原创 书生大模型实战营(第3期)闯关记录(基础岛-XTuner 微调个人小助手认知)
- 使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知,记录复现过程并截图。微调(fine-tuning)是一种基于预训练模型,通过少量的调整(fine-tune)来适应新的任务或数据的方法。微调是在预训练模型的基础上,将模型中一些层的权重参数进行微调,以适应新的数据集或任务。预训练模型部分已经在大规模数据上得到了训练,它们通常是较为通用且高性能的模型,因此可以很好地作为新任务的起点。微调可以加快模型的收敛速度,降低模型过拟合的风险,并在不消耗过多计算资源的情况下获取较好
2024-08-09 09:40:09 771
原创 书生大模型实战营(第3期)闯关记录(基础岛-书生大模型全链路开源体系)
近一年多来,上海人工智能实验室在社区持续对全链条开源工具体系升级,形成了书生大模型全链路开源开放体系。。- 2023.7.6 InternLM-7B开源率先免费商用,发布全链条开源工具体系- 2023.9.20 internLM-20B开源,开源工具链全线升级- 2024.1.7 internLM2开源、性能超最新同量级开源模型- 2024.7.4 internLM2.5开源。
2024-08-07 17:37:56 879
原创 书生大模型实战营(第3期)闯关记录(基础岛-Llamaindex RAG实践)
给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。第一种方式,改变了模型的权重即进行模型训练,这是一件代价比较大的事情,大语言模型具体的训练过程,可以参考InternLM2技术报告。第二种方式,并不改变模型的权重,只是给模型引入格外的信息。类比人类编程的过程,第一种方式相当于你记住了某个函数的用法,第二种方式相当于你阅读函数文档然后短暂的记住了某个函数的用法。对比两种注入知识方式,第二种更容易实现。
2024-07-31 02:36:46 926
原创 书生大模型实战营(第3期)闯关记录(基础岛-LangGPT结构化提示词编写实践)
这里可以看到,直接让他比较13.11与13.8的大小得到的结果是错误的。接下来我们编写一个LangGPT结构化的提示词。这里使用前面Streamlit 部署 InternLM2-Chat-1.8B 模型进行对话。通过结果可以看到,使用编写的提示词后,模型能够返回正确的结果。
2024-07-30 12:07:20 304
原创 书生大模型实战营(第3期)闯关记录(基础岛-8G 显存玩转书生大模型 Demo)
在使用 Upload Image 上传图片后,我们输入 Instruction 后按下回车,便可以看到模型的输出。使用 LMDeploy 启动一个与 InternLM-XComposer2-VL-1.8B 模型交互的 Gradio 服务。接下来,进入准备好的demo环境,运行cli_demo.py启动上面创建的demo。通过下面的命令来启动 InternVL2-2B 模型的 Gradio 服务。然后,执行如下代码来启动一个 Streamlit 服务。首先,创建一个cli_demo.py文件,
2024-07-29 12:40:50 263
原创 大模型-书生训练营第三期闯关记录(入门岛 2.python基础)
请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。
2024-07-19 23:28:06 162
原创 大模型-书生训练营第三期闯关记录(入门岛 1.Linux)
使用conda create -n name python创建一个虚拟环境。2. 在Web IDE里运行hello_world.py。然后使用ssh命令进行端口映射。用vscode远程连接。查看已有conda环境。再次查看conda环境。
2024-07-19 23:14:17 206
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人