- 博客(9)
- 资源 (1)
- 收藏
- 关注
原创 进阶岛·第2关 定义智能体
(重要步骤笔记:首先输入模型 IP 为 127.0.0.1:23333,在输入完成后按下回车键以确认。并选择插件为 ArxivSearch,以让模型获得在 arxiv 上搜索论文的能力。
2024-08-08 20:18:24 572
原创 基础岛·第6关 OpenCompass评测
由于数据污染的源头是出现在 LLM 所用的训练数据中,因此最直接的检测数据污染的方法就是将测试数据与训练数据进行碰撞,然后汇报两者之间有多少语料是重叠出现的,经典的 GPT-3 论文中的表 C.1 会报告了相关内容。:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。
2024-08-07 23:03:19 224
原创 基础岛·第5关 XTuner fine-tuning
"text": "书生·浦语大模型实战营第三期是上海人工智能实验室推出的书生·浦语大模型实战营系列活动的第三批次,将于2024年7月正式进行。在准备好了模型和数据集后,我们就要根据我们选择的微调方法结合微调方案来找到与我们最匹配的配置文件了,从而减少我们对配置文件的修改量。(fine-tuning)是一种基于预训练模型,通过少量的调整(fine-tune)来适应新的任务或数据的方法。但模型无法回答它来是实战营做什么的问题。配置文件其实是一种用于定义和控制模型训练和测试过程中各个方面的参数和设置的工具。
2024-08-07 20:51:19 316
原创 基础岛第4关·RAG
基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前InternLM2-Chat-1.8B模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力,截图保存。选用了LlamaIndex框架。LlamaIndex 是一个上下文增强的 LLM 框架,旨在通过将其与特定上下文数据集集成,增强大型语言模型(LLMs)的能力。它允许您构建应用程序,既利用 LLMs 的优势,又融入您的私有或领域特定信息。
2024-08-06 17:52:49 91
原创 基础岛第三关 提示词
那么在下一次运行新的终端时,可以通过指令tmux a -t langgpt重新进入。:近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为。(注意SSH操作,是在电脑自带的cmd窗口,而不是在服务器上的终端运行以下指令。不要被我的伟岸身姿吓倒,我就是来教导你们这些平庸之辈的。2. 由于服务需要持续运行,需要将进程维持在后台,所以这里使用tmux软件创建新的命令窗口。凡人们,在本大师面前不要装逼。
2024-08-06 12:56:12 723
原创 InternLM大模型第三期(闯关·第2关)
使用本地vscode连接远程开发机,将上面wordcount函数在开发机上进行debug,体验debug的全流程,并完成一份debug笔记(需要截图)。请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。# 这里使用正则表达式替换掉标点符号和空格之外的字符,然后替换多个空格为一个空格。# 调用wordcount函数并打印单词计数结果。# 去除标点符号并转换为小写。# 创建字典,完成单词计数。#定义wordcount函数。
2024-07-19 00:15:41 372
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人