LLM入门与实践
文章平均质量分 91
TensorSense
一位致力于开源教程编写与学习的工程师,主要方向为计算机视觉、自然语言处理、大语言模型的工业项目应用,擅长各类“AI+”项目的技术方案验证、设计和开发。欢迎与我交流,yts3221@126.com
展开
-
LLM 入门与实践(三)Baichuan2 部署与分析
本文详细介绍Baichuan2部署与分析。Baichuan2是由百川智能研发的开源大模型,具备7B和13B两个尺寸,在多个子任务上表现出色。文章首先概述了Baichuan2的基本信息,包括其开源和闭源版本,以及不同尺寸的模型。然后详细介绍了Baichuan2的本地部署安装过程,包括下载代码、模型权重,环境配置,报错处理以及配置路径等步骤。接着,文章对Baichuan2的模型结构、prompt结构、特殊token处理、单轮推理长度限制等内容进行了分析。原创 2024-05-20 21:25:10 · 597 阅读 · 0 评论 -
LLM 入门与实践(二)ChatGLM3 部署与分析
本文介绍了国内大模型开源界的先驱ChatGLM,其提供了多种开源大模型和工具调用功能。文章详细介绍了ChatGLM的发展历史、模型结构、prompt分析、显存分析等内容。ChatGLM是由北京智谱华章科技有限公司开发的基于GLM的对话模型,目前已发展到v4版本,其中v3版本已开源。文章还介绍了如何在本地部署ChatGLM3-6B模型,包括环境配置和操作步骤。原创 2024-05-20 21:18:01 · 1047 阅读 · 0 评论 -
LLM 入门与实践(一)Qwen部署与分析
本文介绍了Qwen小组研发的开源大语言模型Qwen,包括其安装、代码结构、多轮对话机制和显存占用分析。Qwen系列模型支持多种尺寸和精度,具有对话、生成内容等能力。多轮对话通过拼接历史信息实现,而显存占用与上下文长度呈指数级增长。通过对Qwen-1.8B-chat模型的部署和代码剖析,读者可以深入了解LLM模型的工作原理和性能特点。原创 2024-05-19 18:44:43 · 541 阅读 · 0 评论