大模型
Tensorrrrrr
这个作者很懒,什么都没留下…
展开
-
MindSearch 部署到Github Codespace 和 Hugging Face Space
随着硅基流动提供了免费的 InternLM2.5-7B-Chat 服务(免费的 InternLM2.5-7B-Chat 真的很香),MindSearch 的部署与使用也就迎来了纯 CPU 版本,进一步降低了部署门槛。那就让我们来一起看看如何使用硅基流动的 API 来部署 MindSearch 吧。原创 2024-10-06 13:09:07 · 278 阅读 · 0 评论 -
茴香豆:企业级知识库问答工具
茴香豆 是由书生·浦语团队开发的一款开源、专门针对国内企业级使用场景设计并优化的知识问答工具。在基础 RAG 课程中我们了解到,RAG 可以有效的帮助提高 LLM 知识检索的相关性、实时性,同时避免 LLM 训练带来的巨大成本。在实际的生产和生活环境需求,对 RAG 系统的开发、部署和调优的挑战更大,如需要解决群应答、能够无关问题拒答、多渠道应答、更高的安全性挑战。因此,根据大量国内用户的实际需求,总结出了三阶段Pipeline的茴香豆知识问答助手架构,帮助企业级用户可以快速上手安装部署。原创 2024-10-06 08:44:51 · 318 阅读 · 0 评论 -
InternVL 多模态模型部署微调实践
本次实践,微调一个多模态模型,可以对指定图片给出有趣有梗的配文。原创 2024-10-06 00:48:19 · 247 阅读 · 0 评论 -
LMDeploy 量化部署进阶实践
之前在2.1.1 启动API服务器与3.2 LMDeploy API部署InternVL2均是借助FastAPI封装一个API出来让LMDeploy自行进行访问,在这一章节中我们将依托于LMDeploy封装出来的API进行更加灵活更具DIY的开发。关于Function call,即函数调用功能,它允许开发者在调用模型时,详细说明函数的作用,并使模型能够智能地根据用户的提问来输入参数并执行函数。随着模型变得越来越大,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。原创 2024-10-03 21:23:35 · 833 阅读 · 0 评论 -
Lagent 自定义你的 Agent 智能体
Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典型工具以增强大语言模型的能力。Lagent 目前已经支持了包括 AutoGPT、ReAct 等在内的多个经典智能体范式,也支持了如下工具:运行gradio的时候报错: 即可添加图片生成工具原创 2024-10-03 16:02:57 · 434 阅读 · 0 评论 -
浦语提示词工程实践
大模型对浮点数:13.8 > 13.11?原创 2024-10-02 14:07:59 · 313 阅读 · 0 评论 -
InternLM + LlamaIndex RAG 实践
正式介绍检索增强生成(Retrieval Augmented Generation,RAG)技术以前,大家不妨想想为什么会出现这样一个技术。给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。第一种方式,改变了模型的权重即进行模型训练,这是一件代价比较大的事情,大语言模型具体的训练过程,可以参考InternLM2技术报告。第二种方式,并不改变模型的权重,只是给模型引入格外的信息。原创 2024-10-02 13:44:39 · 411 阅读 · 0 评论 -
OpenCompass 评测 InternLM-1.8B 实践
OpenCompass 评测 InternLM-1.8B 实践原创 2024-10-02 13:34:19 · 165 阅读 · 0 评论 -
8G 显存玩转书生大模型 Demo
根据书生官方的文档一步步走即可。原创 2024-10-01 20:22:52 · 195 阅读 · 0 评论 -
书生·浦语大模型全链路开源开放体系
书生·浦语大模型全链路开源开放体系原创 2024-10-01 18:47:45 · 779 阅读 · 0 评论 -
书生大模型实战训练营 第三期 入门岛
国庆卷王场原创 2024-09-30 11:01:42 · 290 阅读 · 0 评论