人工智能ChatGLM
文章平均质量分 90
开源ChatGLM学习
North_D
纯粹的技术控,热爱徒步和骑行,谢谢关注。不定期心得分享,满满干货。
App分享在InsCode:https://inscode.csdn.net/@qq_39813001
展开
-
大语言模型数据集alpaca羊驼数据集、Vicuna骆马数据集异同、作用、使用领域
Alpaca和Vicuna都是基于大型语言模型(LLM)开发的开源项目,并都在自然语言处理领域有所应用,但它们在数据来源、模型训练和应用场景上有所不同。原创 2024-03-19 11:28:09 · 2101 阅读 · 0 评论 -
大语言模型LangChain + ChatGLM3-6B的组合集成:工具调用+提示词解读
大语言模型(如ChatGLM3)的提示词模板,用于指导模型在与人类交互时如何使用工具以及基于自身知识进行回答。该模板用于确保模型遵循预设的格式和逻辑流程来处理问题,并在需要时调用指定的外部工具。通过这种结构化的提示方式,ChatGLM3模型能够根据问题内容选择是否及如何调用外部工具,并最终组织出合适且准确的回答。这段代码片段定义了一个名为。原创 2024-02-25 12:55:35 · 1921 阅读 · 0 评论 -
(提供数据集下载)基于大语言模型LangChain与ChatGLM3-6B本地知识库调优:数据集优化、参数调整、Prompt提示词优化实战
80次/分,律齐,EKG示窦性心律.对答切题,双眼向右凝视,双瞳孔等大等圆,对光反射存在,左鼻唇沟浅,伸舌略偏左。左侧肢体肌张力增高,左侧腱反射略亢进,左侧肌力III0,右侧肢体肌张力正常,肌力V0。入院前四小时突然觉得头痛,同时发现左侧肢体乏力,左上肢不能持物,左下肢不能行走,恶心伴呕吐胃内容物数次。无意识丧失,无四肢抽搐,无大小便失禁,即送医院急诊。曾经尝试过进行以下这一步的操作,由于没有工具辅助,非常繁琐,尤其是key值的生成。段落内处理:确保段落内是类似于KV结构,如“症状”:“头疼”。原创 2024-02-22 16:07:48 · 1805 阅读 · 1 评论 -
使用Streamlit构建纯LLM Chatbot WebUI傻瓜教程
大量的大语言模型的WebUI基于Streamlit构建对话机器人Chatbot。Streamlit可以帮助将大型语言模型集成到Web界面中,以构建对话机器人Chatbot的WebUI。使用Streamlit API将大型语言模型集成到Web界面中,可以使用模型来回答用户的问题,并将回答显示在界面上。代码地址: https://gitcode.net/qq_39813001/Streamlit。代码地址: https://gitcode.net/qq_39813001/Streamlit。原创 2024-02-20 00:03:35 · 4303 阅读 · 1 评论 -
CP04大语言模型ChatGLM3-6B特性代码解读(2)
def main(SYSTEM_PROMPT = '你是一位智能AI助手,你叫ChatGLM,你连接着一台电脑,但请注意不能联网。在使用Python解决任务时,你可以运行代码并得到结果,如果运行结果有错误,你需要尽可能对代码进行改进。你可以处理用户上传到电脑上的文件,文件默认存储路径是/mnt/data/。原创 2024-02-19 08:07:15 · 1610 阅读 · 1 评论 -
大语言模型LLM中Transformer模型的调用过程与步骤
例如,给模型的输入文本是:“Once upon a time”,那么模型可能会继续生成:“there was a beautiful princess”. Prompt可以被用来引导模型生成特定的风格或内容的文本。解码器(Decoder):与编码器类似,解码器也是多个堆叠的层,每个层由三个子层组成:自注意力层、编码器-解码器注意力层(Encoder-Decoder Attention Layer)和前馈神经网络层。自注意力层的输入是词嵌入和位置编码,输出是经过自注意力计算的编码。指定生成的文本序列数量。原创 2024-02-18 13:45:47 · 1050 阅读 · 0 评论 -
CP03大语言模型ChatGLM3-6B特性代码解读(1)
LogitsProcessor的作用就是在生成过程中修改score,改变模型输出的概率分布的工具。此方法其实就是ChatGLM3-6B的model.stream_chat实现。不太理解为什么挪到一个demo里使用。原创 2024-02-18 12:13:35 · 1733 阅读 · 0 评论 -
CP02大语言模型ChatGLM3-6B使用CLI代码进行多轮对话
大语言模型ChatGLM3 CLI代码进行多轮对话。原创 2024-02-16 11:38:45 · 1457 阅读 · 2 评论 -
CP01大语言模型ChatGLM3-6B使用CLI代码进行代码调用初体验
之前体验过了ChatGLM3-6B环境自带的各种Demo,包括base_demo、composite_demo等。官方给的教程很少,只能通过阅读有限的demo代码来了解。我是 North-D 智能助手,一个大语言模型 LLM。我的任务是根据用户的提问提供有用的信息和回答。根据您的查询,我已经成功追踪到股票代码为10111的实时价格,目前该股票的价格为12412元。我是人工智能助手 ChatGLM3-6B,很高兴见到你,欢迎问我任何问题。如果GPU显存32G以下,在初始化时,请选择合适的初始化方式。原创 2024-02-15 14:28:17 · 1141 阅读 · 1 评论 -
大语言模型Prompt提示词
summary”: “这款连衣裙,由上到下都透出一丝迷人诱惑的女性魅力,经典圆领型,开口度恰好,露出你的迷人修长的脖颈线条,很是优雅气质,短袖设计,在这款上竟是撩人美貌,高腰线,散开的裙摆,到小腿的长度,遮住了腿部粗的部分,对身材有很好的修饰作用,穿起来很女神;我的任务是根据用户的问题和要求提供适当的答复和支持。“summary”: “小女人十足的条纹衬衣,缎面一点点的复古,还有蓝绿色这种高级气质复古色,真丝材质,撞色竖条纹特别的现代感味道,直h型的裁剪和特别的衣长款式,更加独立性格。原创 2024-02-14 10:02:49 · 2737 阅读 · 0 评论 -
大语言模型ChatGLM + P-Tuning微调实践
LLM微调可以对原有预模型进行专业领域知识的训练,相关领域知识需要进行预处理整理成语料,语料越充分相对来说微调后的模型预测越准,还要结合调参,反复地训练,才有可能达到预期的效果。以为下载错误,但是观察容量大小,16M左右,正好是AdvertiseGen.tar.gz的大小。在此步骤后继可以有两种后继处理,一种是加入微调后的模型;这个KEY指的是json中的key:value,本人下载的与文件默认参数一致,不需要修改。随着对P-Tuning理解加深,微调后的新模型改变了认知,似乎都忘记了,回答变得很奇怪了。原创 2024-02-12 12:19:27 · 1211 阅读 · 1 评论 -
大语言模型langchain+ChatGLM3-6B+本地知识库实战
在aliyun选择硬件资源,选择镜像版本时格外注意pytorch、cuda的版本:pytorch=2.1.2、cuda=12.1、python=3.10,还有modelscope=1.11.0与Tensorflow=2.14.0。其中,model_copy.py里的默认内容不需要删除(有些教程建议删除),将embedding\model相关路径改成绝对路径即可。微调、本地知识库和 prompt 是LMM模型调整和优化中的重要概念,它们之间有一定的关系和区别。处理完成后,再次上传,成功。问题解决,可以上传。原创 2024-02-10 00:37:32 · 4348 阅读 · 7 评论 -
阿里云人工智能工程师ACP认证考试:15天备考到通过经验分享
在工作中,接触并使用深度学习相关技术已经有4、5年左右,具备一些AI相关的理论和经验。随着2023年AIGC的火热,个人的热情被带动起来,有必要系统、全面的对人工智能、机器学习、深度学习进行总结和再学习。那就设立一个可量化的学习目标吧:考个人工智能相关的认证,以证促学。踅摸了一圈,将目标确定为阿里云人工智能工程师ACP认证。记录、分享一下经验。原创 2024-02-08 10:57:29 · 1498 阅读 · 1 评论