自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 认知实习day04--超参数选择方法

是一种数据集的分割方法,将训练集划分为n份,拿一份做验证集(测试集),其他n-1份做训练集。

2024-04-25 21:14:11 191

原创 OpenCompass大模型评测实战作业

2.解压评测数据集到 data/处。1.安装(面向GPU的环境安装)3.查看支持的数据集和模型。

2024-04-25 17:17:34 885

原创 OpenCompass:大模型评测

一.上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。

2024-04-25 09:45:48 1723

原创 认知实习day03

一.距离量度1.常见距离公式欧氏距离曼哈顿距离:切比雪夫距离:闵可夫斯基距离(闵氏距离)不是一种新的距离的度量方式,是对多个距离公式的概括性的表述二.特征预处理1.数据归一化:通过对原始数据进行变换把数据映射到【mi,mx】(默认为[0,1])之间2.数据标准化:通过对原始数据进行标准化,转换为均值为0标准差为1的标准正态分布的数据。

2024-04-24 20:56:37 235

原创 认知实习day02

K-近邻算法(K Nearest Neighbor,简称KNN),如果一个样本在特征空间中的k个最相似的样本中的大多数属于某一个类别,则该样本也属于这个类别。用较小领域中的训练实例进行预测,K值的减小就意味着整体模型变得复杂,容易发生过拟合;用较大的领域中的训练实例进行预测,K值的增大就意味着整体模型变得简单,容易发生欠拟合;d.进行多数表决,统计K个样本中哪个类别的样本个数最多;a.计算未知样本到每一个训练样本的距离;注:空间中两个样本的距离通过欧式距离来度量的。a.计算未知样本到每一个训练样本的距离;

2024-04-23 22:32:31 166

原创 [InternLM2]Lagent & AgentLego 智能体应用搭建【书生·浦语大模型实战营第二期第六节笔记作业】

2.用Lagent自定义工具(查询上海天气)3.完成AgentLeg直接使用部分。

2024-04-23 21:51:32 190

原创 Lagent&AgentLego智能体应用搭建

一.智能体的产生背景大语言模型的局限性:幻觉(模型可能产生虚假信息,与现实严重不符)时效性(模型训练数据过时,无法反映最新趋势和信息)可靠性(面对复杂任务时,可能频繁发错误输出现象)二.智能体组成三.智能体范式四.Lagent & AgentLego1.Lagent:一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体支持多种智能体范式(如AutoGPT,ReWoo,ReAct)支持多种工具(如谷歌搜索,Python解释器等)

2024-04-23 20:58:40 1881

原创 #认知实习day-01机器学习概述

深度学习(DL)深度神经网络,大脑仿生,设计一层一层的设计神经元模拟万事万物。基于规律的学习:程序员根据经验利用手工的if-else进行预测。强化学习:通过构建四个要素:agent,环境状态,行动,奖励,图像识别,无人驾驶,智能翻译,医疗智能翻译,数据挖掘。2022年chatGPT的出现,引起AIGC的发展。数据,算法,算力三要素相互作用,是AI发展的基石。无监督学习:无标签,根据样本的特征进行聚类。基于模型的学习:从数据中自动学出规律。半监督学习:一半有标签,一半无标签。基于模型的学习:比如房价预测。

2024-04-22 16:46:29 257

原创 XTuner微调LLM:1.8B,多模态和Agent

这意味着,当我们访问 /root/ft/model 时,实际上就是在访问 /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b 目录下的内容。执行上述操作后,/root/ft/model 将直接成为一个符号链接,这个链接指向 /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b 的位置。准备好的配置文件只要运行起来就代表着模型就开始训练或者微调了。

2024-04-19 21:47:43 691

原创 第二期书生浦语大模型实战营第四次作业

首先我们需要先安装一个 XTuner 的源码到本地来方便后续的使用假如大家存储空间不足,我们也可以通过以下代码一键通过符号链接的方式链接到模型文件,这样既节省了空间,也便于管理。# 删除/root/ft/model目录# 创建符号链接执行上述操作后,将直接成为一个符号链接,这个链接指向的位置。这意味着,当我们访问时,实际上就是在访问目录下的内容。通过这种方式,我们无需复制任何数据,就可以直接利用现有的模型文件进行后续的微调操作,从而节省存储空间并简化文件管理。

2024-04-19 20:50:27 847

原创 LMDeploy量化部署&VLM实践

LMDeploy核心功能:(1)模型高效推理 参考命令:IMdeploy chat -h(2)模型量化压缩 参考命令:IMdeploy lite -h(3)服务化部署 参考命令:IMdeploy serve -hLMDeploy推理视觉多模态大模型:5.实践部分:(1)LMDeploy环境部署创建conda环境:安装LMDeploy:激活刚刚创建的虚拟环境。安装0.3.0版本的lmdeploy。等待安装结束就OK了!LMDeploy模型对话(chat)

2024-04-16 19:31:55 750

原创 LMDeploy 量化部署 LLM-VLM 实践

参考文档:https://github.com/InternLM/Tutorial/blob/camp2/lmdeploy/README.md作业一:配置 LMDeploy 运行环境使用命令:studio-conda -t lmdeploy -o pytorch-2.1.2由于环境依赖项存在torch,下载过程比较缓慢,最终结果如下图:安装deployTransformer来直接运行InternLM2-Chat-1.8B模型:运行transformer.py文件中的内容,运行得到对话:进阶作业:设置KV C

2024-04-15 17:54:11 365

原创 茴香豆知识助手作业

问题二:confing参数存在问题,可能是版本问题,还有就是里面的参数只需要设置一次,不允许重复,但是我每次进入开发机就设置了一次,至少重复了四次。问题一:confing文件中没有save_path这个路径,在confing文件中加入改名后依旧报错。在检查完软连接都正常后,过段时间重启开发机即可恢复。

2024-04-12 15:19:07 200

原创 茴香豆:搭建你的RAG智能助力

RAG是一种结合了检索和生成的技术,旨在通过利用外部知识库来增强大语言模型的性能。它通过检索与用户输入相关的信息片段,并结合这些信息来生成更准确,更丰富的回答。RAG(Retrieval Augmented Generation)技术解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。RAG效果比对如图所示,由于茴香豆是一款比较新的应用,训练数据库中并没有收录到它的相关信息。

2024-04-08 20:37:00 1877

原创 轻松玩转书生·浦语大模型趣味 Demo——作业

image>1. 殷商文化:安阳最为人所知的文化遗产是殷墟遗址,这里是商朝后期的都城遗址,也是中国最早的青铜文化中心之一。<image>1. 殷商文化:安阳最为人所知的文化遗产是殷墟遗址,这里是商朝后期的都城遗址,也是中国最早的青铜文化中心之一。<image>1. 殷商文化:安阳最为人所知的文化遗产是殷墟遗址,这里是商朝后期的都城遗址,也是中国最早的青铜文化中心之一。<image>1. 殷商文化:安阳最为人所知的文化遗产是殷墟遗址,这里是商朝后期的都城遗址,也是中国最早的青铜文化中心之一。

2024-04-03 13:29:05 282

原创 第二期书生浦语大模型实战营第二次课程笔记--轻松玩转书生·浦语大模型趣味 Demo

待程序下载完成后,输入运行命令:streamlit run /root/Tutorial/helloworld/bajie_chat.py --server.address 127.0.0.1 --server.port 6006。Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。这是第一次运行结果,出现的界面与预期的不符合,我分析的原因可能是本地端口环境配置本地。

2024-04-02 17:26:23 770

原创 书生.浦语大模型全链路开源体系

为了确保我们的模型InternLM2能无缝融入这个成熟的生态系统,与Falcon(Almazrouei et al.(2023))、Qwen(Bai et al. (2023a))、Baichuan(Yang et al. (2023))、Mistral(Jiang et al. (2023))等知名LLMs保持一致,我们选择遵循LLaMA的结构设计原则。,我们采用了交错的方式,如图所示。XTuner可以适合不同的生态,支持不同的算法,支持不同的开源生态,还支持不同的加速方式,支持Nvidia的各级显卡;

2024-03-29 11:40:25 642

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除