自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 OpenCompass 司南 大模型测评

上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。

2024-04-19 09:56:43 1506

原创 Lagent & AgentLego 智能体应用搭建 实战作业

​​。

2024-04-17 23:10:34 316 1

原创 Lagent & AgentLego智能体应用部署

可以感知环境中的动态条;能采取动作影响环境;能运用推理能力理解信息、解决问题、产生推断、决定动作。

2024-04-17 18:10:25 229 1

原创 LMDeploy 量化部署 LLM&VLM 实践 作业

4.使用Transformer库运行模型。6.LMDeploy模型量化(lite)8.LMDeploy服务(serve)5.使用LMDeploy与模型对话。2.安装LMDeploy。1.创建conda环境。7.使用W4A16量化。

2024-04-17 10:48:58 184 1

原创 LMDeploy 量化部署 LLM&VLM 实践

在软件工程中,部署通常指的是将开发完毕的软件投入使用的过程。在人工智能领域,模型部署是实现深度学习算法落地应用的关键步骤。简单来说,模型部署就是将训练好的深度学习模型在特定环境中运行的过程。LMDeploy 由 MMDeploy和MMRazor 团队联合开发,是涵盖了 LLM 任务的全套轻量化、部署和服务解决方案。核心功能包括高效推理、可靠量化、便捷服务和有状态推理。

2024-04-16 22:23:55 1494 1

原创 XTuner 微调个人小助手认知作业

4.模型准备、训练、转换、整合。5.web demo部署。

2024-04-16 19:27:19 78 1

原创 书生浦语RAG智能助理搭建(茴香豆)

RAG ( Retrieval Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的技术,旨在通过利用外部知识库来增强大型语言模型(LLMs)的性能。它通过检索与用户输入相关的信息片段,并结合这些信息来生成更准确、更丰富的回答。优点:解决LLMs在处理知识密集型任务时可能遇到的挑战。提供更准确的回答、降低成本、实现外部记忆。解决生成幻觉(hallucination ) 、过时知识 、缺乏透明和可追溯的推理过程等问题。应用。

2024-04-12 12:48:53 587 1

原创 XTuner微调LLM、1.8B、多模态、Agent

Finetune也就是我们常说的微调。大模型是在海量的内容上进行无监督或者半监督的方式来进行训练的,训练出的模型涵盖多个领域但是不精确,回答专业知识不太准确,而微调就是为了解决这个问题,使模型在专业领域的回答更好一点。

2024-04-12 09:47:38 542

原创 Homework Demo

使用 InternLM2-Chat-1.8B。

2024-04-02 09:55:31 144 1

原创 基于internLM和LangChain的知识库搭建

文章来源于internLM训练营的课程,B站有相应视频。知识时效性受限:如何让LLM能够获取最新的知识专业能力有限:如何打造垂直领域的大模型(关注点)定制化成本太高:如何打造个人专属的LLM 应用和的开发范式RAG(检索增强生成) VS Finetune(微调):RAG通过外挂一个知识库来优先匹配出对应问题的文档知识,然后把文档和问题一同交给大模型来处理。以此来提高大模型的知识储备。RAG优点:低成本、RAG缺点:受基座模型的影响很大、单次回答知识有限。

2024-03-30 18:23:05 638

原创 书生浦语大模型全链路开源体系(1)+internLM2技术报告

采用了多维度数据价值评估高质量语料驱动的数据富集有针对性的数据补齐等手段,使得训练更加高效。超长的上下文理解能力、综合性能的全面提升、优秀的对话和创作体验、工具调用能力的整体升级、突出的数理能力和实用的数据分析功能。1.3.从模型到应用我们可以根据以下流程来选择适合自己的大模型,书生浦语为我们提供了不同量级的模型:书生万卷CC总数据量400GB,拥有时间跨度长、来源丰富、安全密度高等优点。2.2预训练:2.3微调:增量续训和有监督微调俩种方式。增量续训。

2024-03-29 15:52:43 1530

原创 Attention Is All You Need

主流的序列转录模型主要依赖复杂循环和卷积神经网络,采用架构。本文提出了一个简单的架构transformer仅仅使用了自注意力机制,没有使用循环和卷积。

2024-03-23 10:41:55 636 1

原创 Deep Residual Learning for Image Recognition (ResNet)

层数变多会导致精度变差(训练和预测都很差),它不是由于层数变多而导致的过拟合(overfitting),而是训练误差和测试误差都变的高了。而对于来说,结果不准确是因为训练误差很低但是测试误差很高。针对于这种加了深度的模型来说,虽然最后可以收敛,但是精度是不太好的。假设有一个比较浅的模型效果很好,按道理说给他加几层进去效果也应该差不多。

2024-03-21 21:51:03 266

原创 Deep Convolutional Neural Networks 深度卷积神经网络

物体的识别,通过更大的数据集来实现目标。还得避免过拟合(正则优化)。用CNN来做一个超级大的神经网络。CNN有点难训练,但是GPU的使用提高了训练速度。用新的技术一定程度上解决了过拟合的问题。对于预处理部分,作者把一个图片处理成了256*256大小,多余的部分会以中心为界裁掉。

2024-03-21 10:23:35 525

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除