LLM
文章平均质量分 90
架构师研究会
架研年近半百 ,有20多年IT工作经历,目前在一家500强做企业架构。因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊】,有更多的内容分享。
最近因为工作需要打算先备考CPA,然后CFA,如果可能也想学习法律,备战律考。
不满足是向上的车轮,是我的座右铭。
展开
-
【ChatGPT】GPT-3.5+ChatGPT:图解概述
总结常见问题–ChatGPT的受欢迎程度–ChatGPT的成本–ChatGPT的成就–在本地运行ChatGPT–API时间线GPT-3概述(2020年5月)GPT-3.5或InstructGPT概述(2022年1月)ChatGPT概述(2022年11月)ChatGPT的推荐替代方案OpenAI ChatGPT与DeepMind Sparrow的比较ChatGPT的成功总结OpenAI(由埃隆·马斯...原创 2023-03-17 12:40:56 · 9467 阅读 · 0 评论 -
【langchain】在单个文档知识源的上下文中使用langchain对GPT4All运行查询
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2024-01-06 21:14:15 · 1100 阅读 · 2 评论 -
【ChatGPT】提示设计的艺术:使用清晰的语法
无论何时构建用于控制模型的提示,重要的是不仅要考虑提示的内容,还要考虑语法。清晰的语法可以更容易地解析输出,帮助LLM生成符合您意图的输出,并允许您编写复杂的多步骤程序。虽然即使是一个微不足道的例子(列出常见的操作系统命令)也能从清晰的语法中受益,但大多数任务都要复杂得多,而且受益更多。我们希望这篇文章能给你一些关于如何使用清晰语法来改进提示的想法。此外,请务必查看指南。您当然不需要它来编写语法清晰的提示,但它可以让您更容易地编写提示。原创 2024-01-06 21:03:39 · 1319 阅读 · 0 评论 -
在Jupyter笔记本中使用Python语言链在Mac上运行GPT4All
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2024-01-05 20:16:34 · 1087 阅读 · 0 评论 -
【生成人工智能】Ray如何解决生成人工智能基础设施的常见生产挑战
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2024-01-04 20:14:49 · 1056 阅读 · 0 评论 -
【LLM】自主GPT-4:从ChatGPT到AutoGPT、AgentGPT、BabyAGI、HuggingGPT等
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2024-01-04 20:00:44 · 1294 阅读 · 1 评论 -
【LLM】大型语言模型综述论文
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2024-01-03 21:58:09 · 742 阅读 · 1 评论 -
【NLP】2024年改变人工智能的前六大NLP语言模型
2018年,谷歌人工智能团队推出了一种新的自然语言处理(NLP)尖端模型——BERT,即变形金刚的双向编码器表示。它的设计使模型能够考虑每个单词左右两侧的上下文。虽然概念上很简单,但BERT在11项NLP任务上获得了最先进的结果,包括问答、命名实体识别和其他与一般语言理解有关的任务。该模型标志着NLP的一个新时代,语言模型的预训练成为一种新标准。OpenAI团队引入了GPT-3,作为为每个新的语言任务提供标记数据集的替代方案。他们建议,扩大语言模型的规模可以提高与任务无关的少镜头性能。原创 2024-01-03 21:55:23 · 2767 阅读 · 0 评论 -
【LLM】大型语言模型:2023年完整指南
ArXiv大型语言模型(LLM)是在自然语言处理(NLP)和自然语言生成(NLG)任务中利用深度学习的基础模型。为了帮助他们学习语言的复杂性和联系,大型语言模型是根据大量数据进行预训练的。微调(Fine-tuning)情境学习 (In-context learning)零次/一次/几次射击学习 (Zero-/one-/这些模型可以适用于下游(特定)任务(见图2)。LLM本质上是一种基于Transformer的神经网络,谷歌工程师在2017年的一篇题为《注意力是你所需要的一切》的文章中介绍了它。原创 2024-01-02 21:52:23 · 1533 阅读 · 0 评论 -
【LLM】2023年大型语言模型训练
大型语言模型是一种机器学习模型,它在大型文本数据语料库上进行训练,以生成各种自然语言处理(NLP)任务的输出,如文本生成、问答和机器翻译大型语言模型通常基于深度学习神经网络,如Transformer架构,并在大量文本数据上进行训练,通常涉及数十亿个单词。较大的模型,如谷歌的BERT模型,使用来自各种数据源的大型数据集进行训练,这使它们能够为许多任务生成输出。如果您是大型语言模型的新手,请查看我们的“大型语言模型:2023年完整指南”文章。做一个简单介绍,酒研。原创 2024-01-02 21:47:56 · 1142 阅读 · 0 评论 -
【LLM】人工智能应用构建的十大预训练NLP语言模型
语言模型在NLP应用程序的开发中起着至关重要的作用。然而,从头开始构建复杂的NLP语言模型是非常耗时的。出于这个原因,人工智能和机器学习的研究人员和开发人员对预先训练的语言模型深信不疑。迁移学习是一种用于训练模型的技术,该模型使用在另一个数据集上训练的数据集来执行任务。然后使用一个新的数据集来重新调整模型的用途,以执行不同的NLP功能。经过预训练的模型:为什么它们有用?然后,我们可以使用预训练的模型来解决我们自己的NLP问题,而不是从头开始构建模型。原创 2024-01-01 09:23:04 · 1451 阅读 · 0 评论 -
【LLM 】7个基本的NLP模型,为ML应用程序赋能
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2024-01-01 09:16:05 · 1228 阅读 · 0 评论 -
【LLM】微调我的第一个WizardLM LoRA
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2023-12-31 18:37:11 · 1120 阅读 · 0 评论 -
【privateGPT】使用privateGPT训练您自己的LLM
虽然privateGPT目前是一个概念验证,但它看起来很有前景,然而,它还没有准备好生产。推理缓慢。执行文本嵌入需要一段时间,但这是可以接受的,因为这是一次性过程。然而,推理是缓慢的,尤其是在速度较慢的机器上。我用了一台32GB内存的M1 Mac,但还是花了一段时间才找到答案。内存猪。原创 2023-12-30 19:00:18 · 2156 阅读 · 4 评论 -
【LangChain】与文档聊天:将OpenAI与LangChain集成的终极指南
LangChain是一个强大的框架,旨在简化大型语言模型(LLM)应用程序的开发。通过为各种LLM、提示管理、链接、数据增强生成、代理编排、内存和评估提供单一通用接口,LangChain使开发人员能够将LLM与真实世界的数据和工作流无缝集成。该框架允许LLM通过合并外部数据源和编排与不同组件的交互序列,更有效地解决现实世界中的问题。我们将在下面的示例应用程序中使用该框架从文本文档源生成嵌入,并将这些内容持久化到Chroma矢量数据库中。原创 2023-12-29 20:48:14 · 1895 阅读 · 0 评论 -
【最新报道】初窥Windows AI 工作室
做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。原创 2023-12-28 20:04:21 · 1050 阅读 · 0 评论 -
【LangChain】使用LangChain(而非OpenAI)回答有关文档的问题
我对文本生成背后的技术很感兴趣,作为一名工程师,我想进行实验。但作为一个人和一名教师,我认为了解人工智能的工具和思考工具更重要。我强烈建议你阅读詹姆斯·普朗基特的精彩文章《论生成人工智能与不自由》。引用他的话:技术真的是我们经常想象中的中立工具吗?即技术是我们发明然后决定如何使用的东西吗?剧透提醒:答案是否定的。medium.com因此,我相信,我们努力理解和知道人工智能的黑匣子里发生了什么,是能够提出正确问题并开启辩论的第一步。原创 2023-12-27 21:41:21 · 1706 阅读 · 0 评论 -
【LangChain开发】LangChain是基于LLM的应用程序的过去,这是未来
EmbeddChain,这是一个使用LLM构建聊天机器人的框架,可以与各种类型的数据交互,如YouTube视频、PDF、网页、docx文件、文档和Notion笔记原创 2023-12-10 10:33:59 · 868 阅读 · 0 评论