- 博客(195)
- 收藏
- 关注
原创 大模型应用开发之准备篇(OpenAI的plugins、GPTs与RAG、Agent)
大家陆续在很多文章中可能已经看到过了很多概念,比如plugins、GPTs、Agent,这里面自ChatGPT3.5爆火以来,有众多的AI创业公司从不同的切入点在做,OpenAI公司也在不断推进自家产品的核心能力和生态的迭代更新,比如去年最引人瞩目的GPT-4 turbo的发布。
2024-04-26 15:31:18 414
原创 大模型提示工程(Prompt),让LLM自己优化提示词
随着大家对于prompt提问的研究以及对于高质量回答的追求,现在有一个比较热的词叫做prompt creator。
2024-04-26 15:28:07 582
原创 LLM 安全 | 大语言模型应用安全入门
2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些高度专业化的工作,比如法律服务和医疗诊断咨询。
2024-04-25 12:00:13 947
原创 【大模型书籍】入门必备!<大模型应用开发极简入门>(PDF分享)
人工智能大潮已来,不加入就可能被淘汰。就好像现在职场里谁不会用PPT和excel一样,基本上你见不到。
2024-04-25 09:30:06 469
原创 【机器学习书籍】图解机器学习(附PDF)
哈喽啊大家,今天又来给大家推荐一本机器学习方面的书籍。《图解机器学习》用丰富的图示,从ZUI小二乘法出发,对基于ZUI小二乘法实现的各种机器学习算法进行了详细的介绍。
2024-04-24 11:00:26 492
原创 【大模型书籍】从零开始大模型开发与微调:基于PyTorch与ChatGLM(附PDF)
哈喽各位,今天又来给大家分享大模型学习书籍了,今天是这本,大模型是深度学习自然语言处理皇+冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。
2024-04-23 13:52:23 401
原创 【大语言模型基础】Transformer模型Torch代码详解和训练实战
Transformer是由谷歌在17年提出并应用于神经机器翻译的seq2seq模型,其结构完全通过自注意力机制完成对源语言序列和目标语言序列的全局依赖建模。
2024-04-23 13:45:05 657
原创 Meta出招了!Megalodon LLM对Transformer架构发起挑战!
前两天,科技新闻网站VentureBeat上放出了Ben Dickson的一篇文章,名字就叫“Meta 携 Megalodon LLM 挑战 Transformer 架构”。
2024-04-22 11:55:21 566
原创 高达27K star!基于LLM构建本地智能知识库 太猛了
今天我们分享一个开源项目,帮助你快速构建基于Langchain 和LLM 的本地知识库问答,在GitHub已经获得27K star,它就是:Langchain-Chatchat
2024-04-22 11:53:37 999
原创 十分钟学会微调大语言模型
本文就来介绍一种大语言模型微调的方法,使用的工具是我最近在用的 Text Generation WebUI,它提供了一个训练LoRA的功能。
2024-04-19 11:56:56 527
原创 3分钟教你搞懂人工智能大模型的训练过程
大模型的训练是无监督学习还是有监督学习?在大模型训练过程中,数据的标签是什么?如何计算损失然后进行反向传播的呢?
2024-04-18 16:21:20 750
原创 初学解惑:大模型技术的发展与实践
大语言模型是一种深度学习模型,特别是属于自然语言处理(NLP)的领域,一般是指包含数干亿(或更多)参数的语言模型,这些参数是在大量文本数据上训练的,例如模型GPT-3,PaLM,LLaMA等,大语言模型的目的是理解和生成自然语言,通过学习大量的文本数据来预测下一个词或生成与给定文本相关的内容。
2024-04-18 16:17:47 871
原创 深入浅出LLM大语言模型
在整篇文章中,从点到面到又介绍了自然语言处理(NLP)、深度学习、Transformer模型等,让你对LLM和AI领域有更加清晰透彻的理解。
2024-04-17 10:59:20 819
原创 为什么要学习大模型应用开发?
人工智能大潮已来,不加入就可能被淘汰。就好像现在职场里谁不会用PPT和excel一样,基本上你见不到。你问任何一个人问他会不会用PPT,他都会说会用,只是说好还是不好。你除非说这个岗位跟电脑完全无关。但凡说能用上电脑的,基本上都会用excel和PPT,你不会用的基本上都被淘汰了,逻辑一样。
2024-04-17 10:55:14 514
原创 LangChain 工程架构解析
LangChain 是一个基于开源大语言模型的 AI 工程开发框架,旨在使研究人员和开发人员能够更轻松地构建、实验和部署以自然语言处理(NLP)为中心的应用程序。
2024-04-16 16:42:07 783
原创 TensorFlow实战 PDF书籍分享
今天又来给大家推荐一本大模型方面的书籍。《TensorFlow实战》希望用简单易懂的语言带领大家探索TensorFlow(基于1.0版本API)。
2024-04-16 16:39:32 459
原创 LangChain初学者指南
自从ChatGPT发布以来,大语言模型(LLM)得到极大普及。虽然大多数人没有足够资金和计算资源从头开始训练LLM,但仍然可以基于预训练的LLM来构建一些很酷的东西
2024-04-15 14:39:14 759
原创 LangChain 实战:Agent思维
大模型是被训练出来的,它可以结合本地知识库,也可以调用搜索或在线API来增强自身的能力。这些都不是大模型内部的数据,我们称为外部工具。
2024-04-15 14:37:59 1059
原创 LangChain介绍
LangChain Libraries是一个整合了各种Prompt的工具包。使用这个工具包,开发者能更专注于业务逻辑和业务实现。
2024-04-14 14:53:25 735
原创 LangChain的RAG实践
RAG技术将这两种记忆类型进行了整合,最终,在知识密集型的NLP任务上,比如QA,比单独使用上述两种类型的记忆获得了更好的效果。
2024-04-12 10:56:48 959
原创 模型微调还是RAG?使用LLM需要考虑的决策点
模型微调(Fine-Tuning)和检索增强生成(Retrieval-Augmented Generation,简称RAG)是两种不同的技术,它们都用于提升语言模型的性能,但各自采用的方法和侧重点有所不同。本文基于微软的论文对其进行了比较。
2024-04-12 10:54:06 374
原创 Tree-RAG工作流程及实体树应用介绍
T-RAG方法基于将检索增强生成(Retrieval-Augmented Generation,简称RAG)架构与开源经过微调的大型语言模型(Large Language Model,简称LLM)以及实体树向量数据库相结合。
2024-04-11 10:09:15 723
原创 LLM(一):大语言模型
自2022年,ChatGPT发布之后,大语言模型(Large Language Model),简称LLM掀起了一波狂潮。作为学习理解LLM的开始,先来整体的理解一下大语言模型
2024-04-11 10:06:26 981
原创 周志华老师亲讲-西瓜书全网最详尽 高清原版《机器学习初步》PPT课件
《机器学习》是一本经典的机器学习教材,由南京大学计算机系教授`周志华`U V所著。该书几乎成为了机器学习领域的标准教材,被广泛阅读和引用。
2024-04-10 10:26:11 1234
原创 超越GPT4的Agent,我用代码实现了!
最近,人工智能领域的泰斗吴恩达教授提出了一个观点,即通过智能体工作流构建的AI在某些应用场景中的表现甚至可以超越GPT-4。
2024-04-09 17:50:03 556
原创 探索生成式AI的未来:Chat与Agent的较量与融合
近年来,生成式人工智能(AI)不仅在技术界引起了广泛关注,更成为了推动多个行业革新的关键力量。这种技术之所以备受瞩目,不仅在于其独特的创造性和高效性,还在于它对未来商业模式和社会结构可能产生的深远影响。
2024-04-09 17:48:43 948
原创 概念科普|大模型它到底是什么?
ChatGPT、Open AI、大模型、提示词工程、Token、幻觉等人工智能的黑话,在2023年这个普通却又神奇的年份里,反复的冲刷着大家的认知。
2024-04-08 14:54:07 781
原创 大模型量化技术原理-ZeroQuant系列
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大
2024-04-08 14:53:02 690
原创 langchian入门四:LLM+Agents代理=贾维斯?让大模型拥有三头六臂
在日常生活中,不难发现,chatgpt通过文本输入进行处理后返回的也是文本内容,就像是一个只有头的人,能听能思考能说话,但是无法行动.而Agent是一种能够自主决策、采取行动以达到某种目标的实体。
2024-03-25 15:45:46 1046
原创 OpenCV与机器学习:OpenCV实现主成分分析
维数灾难是指出现一定数量的特征(或者维度)后,分类器的性能将开始下降。特征越多,数据集中的信息就越多。
2024-03-21 11:45:00 1930
原创 突破限制:ReLoRA技术让大型神经网络训练效率飞跃
ReLoRA提出了一种新的训练技术,旨在通过低秩更新来高效地训练高秩网络,不仅能够节省资源,还能使得模型性能和常规训练相同。
2024-03-20 10:43:56 706
原创 人工智能机器学习算法总结--1.线性回归算法(单变量及多变量)
线性回归算法的目的是建立一个线性模型,用来描述自变量(输入特征)和因变量(输出)之间的关系。
2024-03-20 10:42:40 726
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人