大模型
文章平均质量分 78
FL1768317420
这个作者很懒,什么都没留下…
展开
-
LangChain简单使用教程之搭建本地知识库AI问答
LangChain是一个开源的框架,本身不提供 LLM,但是它可以让AI开发人员把像chatgpt这样的大型语言模型(LLM)和外部数据结合起来。LangChain 提供通用的接口访问 LLM,支持OpenAI, HuggingFace, 自定义api等多种LLM。听起来很复杂,但其实它很容易上手。下面我们就用LangChain+chatgpt搭建一个简单的本地知识库。原创 2024-04-15 14:30:06 · 1134 阅读 · 0 评论 -
[大模型]百川2大模型安装和使用方法
由于很多用户在 Baichuan 1 (Baichuan-7B, Baichuan-13B)上做了很多优化的工作,例如编译优化、量化等,为了将这些工作零成本地应用于 Baichuan 2,用户可以对 Baichuan 2 模型做一个离线转换,转换后就可以当做 Baichuan 1 模型来使用。对于 8bits 离线量化,我们没有提供相应的版本,因为 Hugging Face transformers 库提供了相应的 API 接口,可以很方便的实现 8bits 量化模型的保存和加载。原创 2024-04-09 11:32:34 · 629 阅读 · 0 评论 -
SDXL_LORA模型训练详细教程
之前写过一篇SD1.5 LORA模型的炼制方法,有的人想要我详细点说说秋叶启动器的lora训练器,SDXL建议使用秋叶的训练器,SD1.5赛博丹炉,个人习惯仅供参考!这次基于sdxl_lora模型的训练,顺便给大家详细的讲讲训练过程。原创 2024-04-07 14:41:35 · 2471 阅读 · 0 评论 -
[技术杂谈]Chat With RTX 介绍
(Nvidia)已于近日发布了名为“Chat with RTX”的Demo版个性化AI聊天机器人,并在其海外官网渠道中提供了下载链接。据了解,这是一款适用于Windows平台的聊天机器人,由TensorRT-LLM提供支持,完全在本地运行。据官网信息显示,想要安装该聊天机器人应用,用户的系统配置需使用的30系/40系显卡(或Ampere/Ada架构的其他显卡),且显存至少为8GB。此外,用户PC的也需为16GB及以上的运行内存、Win 11系统、535.11或更高版本的显卡驱动。转载 2024-03-31 07:36:05 · 29 阅读 · 0 评论 -
chatwithrtx安装后测试文本
张三小朋友今年八岁,身高已经长到了1米3,是个中等身材的小男孩。他既不特别胖,也不特别瘦,看起来非常健康。张三特别喜欢运动,每天放学后,他都会和朋友们一起去操场上踢足球、打篮球,玩得不亦乐乎。他的运动天赋也很不错,总是能在比赛中发挥出色,赢得大家的掌声和称赞。张三也喜欢计算机编程,尤其喜欢python编程,但是他不喜欢C++编程,因为他感觉C++写代码太难了。chatwithrtx安装好后怎么测试模型是否正常使用呢。我们可以将下面文本保存为txt格式进行测试。4、张三不喜欢什么编程。3、张三喜欢什么编程。转载 2024-03-29 06:57:53 · 22 阅读 · 0 评论 -
[大模型]ChatGLM3-6B 微调实践
ChatGLM3 是智谱 AI 和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:a、更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,原创 2024-03-27 14:24:30 · 1415 阅读 · 1 评论