- 博客(14)
- 收藏
- 关注
原创 OpenCompass 大模型评测作业
-tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True \ # 构建 tokenizer 的参数。--hf-path /share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b \ # HuggingFace 模型路径。--max-seq-len 1024 \ # 模型可以接受的最大序列长度。查看支持的数据集和模型。
2024-09-12 10:10:09 318
原创 XTuner 微调个人小助手认知
表示模式匹配,后面跟着的内容将会在所有的配置文件里进行模糊匹配搜索,然后返回最有可能得内容。在选择了一个最匹配的配置文件并准备好其他内容后,下面我们要做的事情就是根据我们自己的内容对该配置文件进行调整,使其能够满足我们实际训练的要求。在准备好了模型和数据集后,我们就要根据我们选择的微调方法结合微调方案来找到与我们最匹配的配置文件了,从而减少我们对配置文件的修改量。脚本来观察微调后的对话效果,不过在运行之前,我们需要将脚本中的模型路径修改为微调后的模型的路径。在我们的输入的这个命令中,我们的。
2024-09-08 10:43:54 669
原创 Cli Demo 部署 InternLM2-Chat-1.8B 模型
【代码】Cli Demo 部署 InternLM2-Chat-1.8B 模型。
2024-08-21 16:05:38 172
原创 书生大模型全链路开源体系
1、概念书生大模型,即InternLM系列模型,是由书生团队开发的一系列人工智能语言模型。这些模型以其大规模参数和强大的功能而著称,涵盖了从基础的语言理解到复杂的数学解题和图文创作等多个领域。2、发展历程2023年:6月7日:发布浦语系列首个千亿参数模型。7月6日:InternLM-7B模型开源,并且提供免费商用,同时发布了全链条开源工具体系。9月20日:InternLM-20B模型开源,开源工具链进行了全线升级。
2024-08-18 15:14:49 802
原创 书生大模型实战营 第三期-Linux关卡
那么需要在本地终端(windows上是cmd/powershell;Linux是shell上)使用。接下来会让你填写保护密码,直接回车即可(这里是因为已生成过了,提示是否需要覆盖)将该目录下的id_rsa.pub文件用记事本等文本编辑器打开.全选复制。首先会让你输入生成地址(一般默认即可,回车)
2024-07-16 22:10:44 492
原创 在C++中,变量的初始化并不总是必须的
局部变量:需要显式初始化,否则包含垃圾值。全局变量和静态变量:如果未显式初始化,会默认初始化为零值。类的成员变量:可以在初始化列表中、构造函数体内或类内初始化。总之,为了避免未定义行为和潜在的bug,最好在声明变量时对其进行初始化,尤其是局部变量。
2024-06-17 11:10:22 426
原创 邻接表的特点
十字链表的存储结构包含表头结点表与弧表,与邻接表类似,是一种顺序结合链式的存储结构,因此需要有两个指针域分别指向以顶点为弧尾和以顶点为弧头的弧结点。分析:在表头结点中,顶点数据域存储与顶点有关的信息,本例指定为 char类型;指针域firstin指向以顶点为弧头的第一条弧,指针域firstout指向以顶点为弧尾的第一条弧。这也告诉我们,待会在创建弧时,不仅需要处理v1的firstout,还需要处理v2的firstin。分析:弧尾结点存储该弧尾结点所在图中的位置,弧头结点同理;
2024-04-25 16:08:20 518
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人