自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(108)
  • 收藏
  • 关注

原创 新手入门:大语言模型训练指南

本文是一份全面的新手指南,旨在指导初学者如何有效地培训大型语言模型(LLM)。文章首先介绍了Transformer架构的基础知识,这是现代LLMs的核心。接着,它深入探讨了预训练和微调的概念,强调了这些步骤在模型开发中的重要性。文章还详细讨论了低阶适应(LoRA)技术,这是一种新兴的高效训练方法,可以显著降低大型模型训练的计算和内存成本。此外,指南涵盖了关键的超参数调整,如批量大小、学习率和梯度累积,这些对于优化模型性能至关重要。

2024-04-11 23:54:03 1310

原创 RAGFlow:基于OCR和文档解析的下一代 RAG 引擎

在对 RAGFlow 的探索中,我们可以清晰地看到其在RAG(Retrieval-Augmented Generation)领域中的重要地位和显著优势。RAGFlow作为一款下一代开源RAG引擎,不仅在问答对话方面表现出色,还具备高级内容生成的能力,例如长文生成等。这使得RAGFlow能够为用户提供更为全面和深入的服务,满足不同场景下的需求,尤其在企业级应用中发挥着重要作用。

2024-04-09 13:41:42 3472

原创 RankLLM:RAG架构下通过重排序实现精准信息检索

RankLLM是一种基于大型语言模型(Large Language Models, LLMs)的重排序方法,它利用了LLM的强大能力来改进信息检索的结果。在信息检索的过程中,初步检索阶段可能会返回大量相关或不相关的文档,RankLLM 的作用是在这些文档中进行再次排序,以提高检索结果的相关性和准确性。RankLLM通过使用LLM作为“提示-解码器”(prompt-decoder),在没有特定任务训练数据的情况下(即零样本设置),对文档列表进行重新排序,优化诸如归一化折扣累积增益(nDCG)等检索指标。

2024-04-03 19:20:13 1006

原创 特定领域 RAG 新突破:LlamaPack 实现 RAFT 论文方法

RAFT 和 LlamaIndex 的协同作用是特定领域自然语言处理领域的一次重大进步。通过利用检索文档的力量,RAFT 使 LLM 能够轻松、准确地处理复杂的信息。随着我们将专业知识整合到 LLM 中的探索不断深入,RAFT 将指引我们走向人工智能真正理解和适应人类语言和语境复杂性的未来。

2024-04-03 19:17:30 1000

原创 Databricks 开源 DBRX:一款功能强大的新型企业级语言模型

从今天开始,Databricks 客户可以通过 API 使用 DBRX,并使用 Databricks 提供的工具和技术,从头开始预训练自己的 DBRX 级模型,或者在我们提供的检查点之上继续训练模型。Databricks 使用高达 32K 词元上下文窗口训练 DBRX,并完全在其平台上构建 DBRX,使用了 Unity Catalog 进行数据治理、Apache Spark™ 和 Lilac AI 进行数据处理和清理,以及 Mosaic AI 训练服务进行大规模模型训练和微调等工具。

2024-03-29 17:58:48 1358

原创 Jamba:AI21 实验室发布首个应用级的 Mamba 架构 AI 模型

AI21 实验室发布了,这是全球首个基于架构的、可用于实际应用的 AI 模型。目前大多数模型(例如 GPT、Gemini 和 Llama)都基于架构。Jamba 结合了 Mamba 结构化状态空间模型 (SSM) 和传统 Transformer 架构的优点,实现了性能和效率的显著提升。Jamba 拥有 256K 个 Token 的超长文本处理能力,相当于大约 210 页文本,同时可在单个 80GB 的 GPU 上容纳 140K 个 token。这一突破得益于其。

2024-03-29 17:54:36 883

原创 RelayAttention:让大型语言模型更高效地处理长提示符

虽然大型语言模型 (LLM) 近年来取得了非常显著的进展,也在各种自然语言处理任务中展现出强大的能力。然而,LLM 的在实际的应用落地层面也面临着一些实际挑战,其中之一就是效率和成本问题,导致了在垂直行业实际落地的应用非常少。因为现有的 LLM 通常需要大量的计算资源和内存,这限制了它们在实际应用中的部署。特别是在处理长文本输入时,LLM 的效率问题尤为突出。这是因为 LLM 需要存储和处理大量的中间结果,而长文本输入会导致中间结果的数量急剧增加。

2024-03-26 12:43:06 1150

原创 RAFT:让大型语言模型更擅长特定领域的 RAG 任务

生成式 AI 对企业最具影响力的应用之一是创建能够访问已有知识库的自然语言接口,换句话说,它能够针对银行、法律和医学等特定领域提供问题解答。

2024-03-25 19:25:39 1501

原创 Python 的 GIL 时代即将终结,迈向真正的多线程时代

那么,GIL 究竟是什么呢?GIL,即全局解释器锁,虽然不是 Python 特有的,但它是在 CPython 解释器的开发过程中引入的一个概念。简单来说,GIL 就像是一个保护机制,确保在任何时刻只有一个线程能够执行 Python 代码,以维护代码的线程安全。但 GIL 也有它的不足之处它限制了 Python 在多核 CPU 上的并行处理能力,因为不论有多少个线程,一次只能在一个核心上运行,这大大降低了程序的运行效率。

2024-03-23 01:00:43 836

原创 LlamaParse:RAG中高效解析复杂PDF的最佳选择

LlamaParse是由 LlamaIndex 创建的一项技术,专门用于高效地解析和表示PDF文件,以便通过 LlamaIndex 框架进行高效检索和上下文增强,特别适用于复杂的PDF文档。它基于RAG(Rule-based Approach with Grammar)技术,能够准确地提取文本、图像、表格等元素,同时保持良好的性能。这项技术的设计初衷是为了处理那些包含嵌入式对象(如表格和图形)的复杂文档,这类文档的处理在以往往往是个挑战。

2024-03-22 17:01:10 993

原创 智能模型新篇章:RAG + Fine-Tuning 混合增强策略

RAG和特定领域微调的结合,为提升大型语言模型的外部知识和领域专长提供了一种强大的解决方案。通过发挥这两种方法的优势,研究人员已经开发出了使大语言模型能够基于事实信息进行推理、适应专业领域,并生成更可解释和可信输出的方法。随着RAG和微调之间的联合作用不断被探索,我们可以预期未来的语言模型将不仅拥有广泛的知识,还能展现出深入的领域专长、推理能力和坚实的事实基础——这是迈向更知识渊博和可靠的AI系统的重要一步。

2024-03-20 21:41:22 994

原创 Grok-1 开源:马斯克旗下xAI公司发布革命性AI模型,开启开源大模型新篇章|3140亿参数

xAI 的 Grok-1 体现了技术复杂性、伦理考量和前瞻性创新的结合。它的发布不仅为AI技术的进步做出了贡献,还为AI模型的开发和集成到数字互动和信息交流的结构中设定了新的标准。随着Grok-1的不断进化和适应,它有望成为寻求知识和技术进步的宝贵资产。Grok AI 助手将包含在 𝕏 Premium+ 中。要下载 Grok-1 的模型权重,请使用下面的磁力链接。您需要一个Torrent下载客户端。magnet:?

2024-03-18 10:51:03 1709

原创 Java全系工程源码加密,防止反编译

ClassFinal是一款java class文件安全加密工具,支持直接加密jar包或war包,无需修改任何项目代码,兼容spring-framework;可避免源码泄漏或字节码被反编译。

2024-03-14 15:52:16 1012

原创 如何使用 CrewAI 构建协作型 AI Agents

语言模型在翻译、总结和推理方面表现出色。但它们的潜力远不止于此。让大语言模型 (LLM) 具备代理性是充分挖掘其推理潜力的一种方法。AI 智能体就是被赋予适当工具和指令的 LLM,能够自动完成网页浏览、网络抓取、执行 SQL 查询、文件操作等任务。利用 LLM 的推理能力,这些智能体能够根据当前需求选择合适的工具。而且,我们还可以将多个智能体组合起来,共同完成更复杂的任务。当我们谈论如何构建 AI Agents时,首先想到的工具就是 LangChain。

2024-03-02 22:13:19 1469

原创 一图窥探RAG技术发展现状

2023年除了大语言模型,听到最多的当属RAG(检索增强生成技术了),在实际业务场景落地过程中,由于大模型目前的一定局限和能力现状以及Token限制、训练成本等多种因素的影响下,RAG不得不成为大家选择快速试错、落地的一种选择和方案。RAG技术通过查询处理、数据检索、文档优化、增强生成、语义理解、文档结构化和自我增强等多步骤,实现了对用户问题的深度理解和高效回答。🔍📈 从自然语言到数据库查询,再到精准答案,RAG技术让AI的每一步都更加智能和人性化,让我们从这一张图来了解RAG技术体系的全貌。#RAG

2024-02-07 10:18:43 1211

原创 AI革命新篇章:法国天才团队挑战ChatGPT霸主地位

随着 Mistral 的创新不断涌现,我们看到了 AI 领域的新篇章正在被书写。这些小巧而高效的模型,不仅在性能上挑战了行业巨头,更是在可访问性和实用性上迈出了重要一步。Mistral 的 Medium 版本和 Mixtral 8x7b 的推出,不仅展示了 AI 的新高度,也为开发者和企业提供了前所未有的机遇。在这个快速变化的时代,Mistral 的故事提醒我们,创新的力量是无穷的,而 AI 的未来,正等待着我们去探索和定义。

2024-02-02 17:38:03 1041

原创 基于LlamaIndex解决RAG的关键痛点

我们讨论了开发 RAG 应用时的 12 个痛点(论文中的 7 个加上另外 5 个),并为它们每一个都提供了相应的解决方案。请看下图,这是根据原论文《Seven Failure Points When Engineering a Retrieval Augmented Generation System》中的图表修改而来的。我们把所有 12 个 RAG 痛点及其解决方案汇总到一张表中,现在我们得到了:虽然这份列表并未涵盖所有内容,但它旨在揭示在设计和实施RAG系统过程中所面临的复杂挑战。

2024-02-01 17:56:08 1462

原创 Lepton Search :不到 500 行代码构建对话式搜索引擎|开源|可商用

最近前阿里巴巴副总裁贾扬清在 Twitter 上公布了的开源项目链接,Apache License 授权,任何人、任何公司都可以自由使用开源代码。大家可以阅读一下源码,非常简洁,核心部分用了 500 行 Python 就实现了一个类似 Perplexity 的生成式搜索引擎。

2024-01-30 15:49:53 1531

原创 如何使用Hugging Face微调大语言模型(LLMs)

微调LLM时,了解你的使用场景和要解决的问题至关重要。这将帮助你选择合适的模型,或者帮助你创建一个数据集来微调你的模型。如果你还没有定义你的使用场景,你可能需要重新思考。并非所有的使用场景都需要微调,建议在微调你自己的模型之前,先评估和尝试已经微调过的模型或基于API的模型。例如,我们将使用以下使用场景:我们想要微调一个模型,它可以基于自然语言指令生成SQL查询,然后可以集成到我们的BI工具中。目标是减少创建SQL查询所需的时间,并使非技术用户更容易创建SQL查询。

2024-01-26 13:58:35 1844

原创 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型

Mixtral 8X7B是Mistral AI公司在大语言模型领域的一次重大突破。它采用了一种名为"专家混合"(MoE)的架构,这种架构由8个专家组成,每个专家组有7个亿参数。这种高效的架构使得Mixtral能够在多个领域表现出色,具有出色的处理能力。Mistra l对持续优化的坚定承诺,将确保Mixture 8X7在AI领域保持领导地位。随着 Mistral 不断优化和调整Mixture ,我们有理由相信,它将带来更多的突破,从而在人工智能和广泛行业中产生意义深远的影响。

2024-01-12 11:22:17 1856

原创 如何利用大语言模型(LLM)打造定制化的Embedding模型

在探索大语言模型(LLM)应用的新架构时,知名投资公司向量数据库是预处理流程中系统层面上最关键的部分。它能够高效地存储、比较和检索高达数十亿个嵌入(也就是向量)。那么,为什么要如此强调向量数据库的重要性呢?这是因为计算机虽然功能强大,但并不擅长直接理解文本、图像、音频等人类友好的数据格式。通过将这些数据转换成数值型的“向量”,我们能够让计算机更高效地处理它们。而普通的数据库并不是为了处理这样的向量而设计的,尽管现在随着生成式 AI 技术的普及,它们开始逐渐支持向量操作。

2024-01-09 11:53:33 2025

原创 2023检索增强生成技术(RAG)研究进展

大语言模型(Large Language Models,LLMs)已经成为我们生活和工作中不可或缺的一部分,它们以惊人的多功能性和智能,转变了我们与信息的互动方式。然而,尽管拥有令人瞩目的能力,这些模型仍存在缺陷。它们可能产生误导性的“幻觉”(hallucinations),依赖潜在的过时信息,处理特定知识时效率不高,专业领域的深度不够,推理能力也有所欠缺。在真实世界的应用中,数据需要持续更新以反映最新进展,并且生成的内容必须是透明并可追溯的,这对于管理成本和保护数据隐私至关重要。因此,仅依赖这些“

2024-01-08 11:57:57 1311

原创 加速你的Python代码:向量化技术揭秘

向量化(Vectorization)是一种执行数组操作的技术,它通过 NumPy 库加以实现。这个技术背后的原理是,它能够一次性对数组或序列中的所有元素进行操作处理,而不像‘for’循环那样逐行进行。在不使用循环的情况下,向量化可以加快 Python 代码的速度。利用这样的方法可以有效地减少代码运行所需的时间。我们可以在 Python 中使用向量化来完成很多事情,例如缩放器乘法或点积乘法。今天我们将探讨几个可以用向量化来替代 Python 循环的实例。这将帮助你在编程时节省宝贵时间,并提高编码技巧。

2024-01-06 23:38:03 812

原创 [译] 2023: AI 的一年

2023年的AI发展重点在于现有技术的改进,未有像ChatGPT或图像生成器那样的革命性突破。这一年被视为过渡期,为向更强大的AI未来迈进做准备。2.Adobe Firefly和Generative Fill推动了视觉内容创作的多样化。Midjourney V.5和V.6模型提高了图像生成的效率和连贯性。DALL·E 3简化了图像生成过程,提高了用户体验。Shutterstock.AI的加入和对艺术家的认可标志着伦理AI的重要一步。3.

2023-12-26 17:19:23 863

原创 RAG实战案例:如何基于 LangChain 实现智能检索生成系统

检索增强生成 (RAG) 是一种使用来自私有或专有数据源的信息来辅助文本生成的技术。它将检索模型(设计用于搜索大型数据集或知识库)和生成模型(例如大型语言模型 (LLM),此类模型会使用检索到的信息生成可供阅读的文本回复)结合在一起。通过从更多数据源添加背景信息,以及通过训练来补充 LLM 的原始知识库,检索增强生成能够提高搜索体验的相关性。这能够改善大型语言模型的输出,但又无需重新训练模型。

2023-12-22 00:20:24 3217

原创 RAG检索增强技术在知识库智能检索场景下的应用实践

本文我们主要探讨了知识检索增强(Retrieval-Augmented Generation, RAG)技术的关键评估方法和行业应用,以及几种现有的技术栈选择及其优缺点。首先,关于RAG的效果评估,我们提到了两种主要的评估方式:独立评估和端到端评估。独立评估包括检索评估和生成评估,重点在于分别量化检索结果的质量和生成问题的能力。端到端评估则结合了无标签和有标签的评估指标,以及人工或GPT模型的评估方法,以获得更全面的效果评价。

2023-12-18 22:43:05 4307

原创 AnythingLLM:基于RAG方案构专属私有知识库(开源|高效|可定制)

继OpenAI和Google的产品发布会之后,大模型的能力进化速度之快令人惊叹,然而,对于很多个人和企业而言,为了数据安全不得不考虑私有化部署方案,从GPT-4发布以来,国内外的大模型就拉开了很明显的差距,能够实现的此路径无非就只剩下国内的开源大模型可以选择了。而现阶段切入大模型应用落地最合适的方案依然是结合大模型基于RAG检索增强来实现知识库的检索和生存。从而构建个人或者企业私有化的本地知识库。

2023-12-13 00:16:49 9502 1

原创 Mistral AI发布行业领先的Mixtral 8x7B专家混合模型&完成4.15亿美元融资

Mistral AI在AI领域取得了双重突破,完成了4.15亿美元的融资,并发布了革命性的Mixtral 8x7B专家混合模型。这一模型不仅推动了技术的创新边界,还为开发者社区提供了前所未有的资源。Mixtral 8x7B以其卓越的性能和成本效益比,在AI基准测试中超越了现有模型,同时保持了对开发者友好的Apache 2.0许可证,确保了其广泛的可接入性和应用潜力。Mistral AI的这一成就标志着它在推动AI技术民主化方面迈出了坚实的一步。

2023-12-13 00:08:20 1234

原创 Google 发布最强大模型Gemini,能力与GPT-4相当

Gemini 是一个多模式模型系列,在图像、音频、视频和文本领域展示了真正强大的功能。其中功能最强大的模型在 32 个基准测试中的 30 个中提升了最先进水平,其中包括 12 个流行文本和推理基准测试中的 10 个、9 个图像理解基准测试中的 9 个、6 个视频理解基准测试中的 6 个以及 5 个语音基准测试中的 5 个识别和语音翻译基准。Gemini Ultra 是第一个在 57 个科目的 MMLU 上达到人类专家表现且得分高于 90% 的模型。

2023-12-07 15:32:41 935

原创 大模型在企业知识库场景的落地思考

今天我们深入探讨了企业在知识库场景下运用大型模型的实践策略。我们首先分析了大型模型在企业实际应用中所面临的挑战,包括算力、调度和数据等方面的问题。随后,我们提出了一系列解决方案,包括构建高效管理和自适应扩展的算力资源体系,开发或引进先进的调度系统,以及建立完善的数据处理流程。最后,我们强调了企业在实施大型模型实践策略时,必须关注数据安全、隐私和合规问题,以确保实践方案的可行性和可持续性。

2023-12-06 18:32:10 2207

原创 OpenAI暂停新的ChatGPT Plus注册 | OpenAI 的 GPT Builder 创建您的 GPTs

OpenAI DevDay 才过去仅仅一周时间,伴随着开发者大会上发布的一系列重磅升级和新特性,无疑这样的进化速度让广大网友炸锅了,其火热程度可见一斑。,排名前 50 名的 AI 工具在 10 个月中累计被访问 240 亿次,。似乎出现这样的结果大家并不感觉到意外,从发布会结束后,紧接着11月8日,ChatGPT和API发生了一场全球大宕机,故障时间断断续续超过了两个小时。足以看出很多人都已经迫不及待的想尝试 OpenAI 发布的一系列全新的AI能力,所以注册的用户数暴增也是可以想见的。

2023-11-15 17:04:50 1158 1

原创 GPT-4 Turbo:OpenAI发布旗舰版GPT-4模型,更便宜|更强大|128K上下文|支持多模态

OpenAI 在 2023 年 11 月 7 日举行首届开发者大会,此次展会的亮点无疑是 GPT-4 Turbo 的亮相,它是 OpenAI 著名的 GPT-4 模型的升级版。GPT-4 Turbo 有两种变体:一种用于文本分析,另一种能够理解文本和图像。GPT-4 Turbo 的上下文窗口扩展为 128,000 个标记或大约 100,000 个单词,比其前身 GPT-4 大四倍。该模型还提供对截至 2023 年 4 月的知识截止日期的最新信息的访问。

2023-11-07 20:16:51 2164

原创 埃隆·马斯克的 AI 聊天机器人 Grok 已经上线

Grok 是根据科幻经典《银河系漫游指南》中的好奇人工智能进行建模的。它旨在成为一个机智、幽默、知识渊博的 AI 助手,可以就广泛的话题进行自然对话。在 Twitter 上分享的演示中,Grok 显示出它可以理解幽默并以自己的笑话和有趣的俏皮话回应。这种能够开玩笑的能力使得与其他更机械化的聊天机器人相比,与 Grok 聊天更加有趣和吸引人。Grok 的支柱是 Grok-1,xAI 的最新大型语言模型。Grok-1 拥有 632 亿个参数,比 GPT-3.5 多了一倍。

2023-11-07 13:02:36 377

原创 Danswer 接入 Llama 2 模型 | 免费在 Google Colab 上托管 Llama 2 API

前面在介绍本地部署免费开源的知识库方案时,已经简单介绍过 Danswer《Danswer 快速指南:不到15分钟打造您的企业级开源知识问答系统》,它支持即插即用不同的 LLM 模型,可以很方便的将本地知识文档通过不同的连接器接入到 Danswer,然后实现本地基于知识库的语义检索。它是完全开源的(MIT 许可证)并且免费使用。本文主要介绍了如何在Google Colab上托管Llama 2模型,并将其接入Danswer。

2023-11-05 23:26:22 846

原创 如何使用LoRA和PEFT微调 Mistral 7B 模型

对于大模型在一些安全级别较高的领域,比如在金融服务领域实施人工智能解决方案时,面临的最大挑战之一是数据隐私、安全性和监管合规性。因为担心数据泄露的问题,很多银行或机构都会回避利用人工智能的优势潜力,尤其是对于GPT-4这样的模型,在国内应用基本上是不太现实的问题。为了克服这一挑战并充分利用人工智能的力量,一个可行的办法是针对特定任务进行人工智能或大型语言模型(LLM)的微调,以确保数据安全地保存在您的私有服务器或虚拟私有云中。

2023-10-27 00:07:48 1306

原创 AutoTrain:在Google Colab上微调LLM最简单的方法

在前面的文章中,我们介绍过《GPT-LLM-Trainer:如何使用自己的数据轻松快速地微调和训练LLM》,主要介绍了使用工具简化模型训练的所有复杂步骤,全程只需输入任务描述,系统就会从头开始生成数据集,将其转换为你想要的任何格式,并为你进行模型微调。你可以在Google Colab上轻松的训练大型语言模型。GPT-LLM-Trainer 模型训练器利用GPT-4模型来简化整个过程。有没有更简单的方法来微调LLM模型?如果你不会编码或者只是一名经验丰富的软件工程师,如何快速加入呢?

2023-10-24 18:28:24 701 2

原创 EmbedChain:比LangChain更加轻量化的LLM框架

在之前的文章中,我们研究了如何使用LangChain结合大型语言模型(LLM)API来构建用户友好且直观的聊天机器人。现在,我们将探索一个新的Python包来进一步简化LangChain的实现。只需3-4行代码,我们就可以轻松地与任何外部数据进行通信!这个神奇的包叫Embedchain!⭐这些库各有优点。我认为LangChain的性能更好,并且具备更多功能。另一方面,Embedchain则更容易使用,并且免费提供开源的语言模型。总之,这两个库都旨在为您创建专属的语言模型。

2023-10-24 09:37:05 574

原创 如何利用验证链技术减少大型语言模型中的幻觉

随着大型语言模型在自然语言处理领域取得了惊人的进步。相信深度使用过大模型产品的朋友都会发现一个问题,就是有时候在上下文内容比较多,对话比较长,或者是模型本身知识不了解的情况下与GPT模型对话,模型反馈出来的结果都是看似合理却不是我们需要的答案,实际上就是大模型出现了“幻觉”,即生成不真实的信息或虚构的回答。这对模型的可信度产生了负面影响。验证链技术为减少模型中的幻觉提供了一种有效方法。它要求模型在生成每个断言时,同时提供一个证据链以支持该断言。这强制模型生成更加符合事实和逻辑的输出,减少臆造信息的概率。

2023-10-23 11:58:56 403

原创 如何选择最适合你的LLM优化方法:全面微调、PEFT、提示工程和RAG对比分析

自从ChatGPT问世以来,全球各地的企业都迫切希望利用大型语言模型(LLMs)来提升他们的产品和运营。虽然LLMs具有巨大的潜力,但存在一个问题:即使是最强大的预训练LLM也可能无法直接满足你的特定需求。定制输出:你可能需要一个具有独特结构或风格的应用程序,例如可以评分并提供简洁反馈点评文章质量的工具。缺少上下文:预训练LLM可能对于你应用程序中重要文件一无所知,例如针对某系列产品进行技术咨询的聊天机器人。如果这些产品的使用手册并未包含在LLM的训练数据中,那么它的准确性可能会受到影响。专业词汇。

2023-10-17 17:03:59 855

原创 未来展望:大型语言模型与 SQL 数据库集成的前景与挑战

随着 GPT-3、PaLM 和 Anthropic 的 Claude 等大型语言模型 (LLM) 的出现引发了自然语言在人工智能领域的一场革命。这些模型可以理解复杂的语言、推理概念并生成连贯的文本。这使得各种应用程序都能够使用对话界面。然而,绝大多数企业数据都存储在结构化 SQL 数据库中,例如 PostgreSQL、MySQL 和 TiDB。通过自然对话无缝访问和分析这些数据仍然具有挑战性。最近新的研究提出了增强LLM与 SQL 数据库集成的技术,重点是跨领域和跨组合泛化。

2023-10-16 00:45:19 825

ChatGLM 的 Prompt 工程实践教程

通过真实的案例介绍ChatGLM 的 Prompt 工程实践教程 其中重点来介绍prompt提示词的设计思路以及使用prompt的心得总结: 1、风格改写类尽量使用few shot:对于风格改写类场景,风格较难用文字总结,并且大模型也较难通过文字get到具体的风格。 2、few shot示例要有明显的风格:提供给大模型的few shot示例,要人工摘选出有明显风格的文本,大模型才能够更好的学习其具体的风格。

2023-10-31

AI编程助手Bito中关于Prompt的使用介绍

一、内容概要: 1、什么是Prompt? 2、获得更好的结果的3个策略 - 写出清晰而详细的指示 - 将你的要求分解成步骤 - 创建一个角色 - 3、更多Prompt资源推荐 二、适合人群:本教程适合对AI感兴趣的程序员群体,希望借助AI编程助手辅助开发,或对Prompt感兴趣的人员。 三、能学到什么:1、了解Prompt的基本概念,2、介绍了关于Prompt的编写原则和具体示例,便于理解,3、最后推荐了目前非常优质的Prompt学习资源。 四、阅读建议:建议结合Bito工具,在IDE中进行自定义Prompt指令的尝试,逐步优化最符合自己的Prompt编程指令。

2023-07-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除