自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 SQL-GPT 数据库语句生成工具

SQL_GPT 拥有许多功能,例如错误修正建议、数据库连接管理、多数据库兼容等等,是每个经常使用数据库的人必备的工具。更棒的是,SQL_GPT 还可以根据数据库结构优化 SQL 语句,并生成 Java 持久层语句,为开发人员提供了更多便利。要开始使用 SQL_GPT,只需安装所需依赖、配置 OpenAI 数据和数据库连接,然后用自然语言描述您的查询需求。工具将会智能地生成相应的 SQL 查询语句,为您节省时间和精力。赶快试试 SQL_GPT,看看它如何改善您的数据库工作流程吧!

2023-08-14 19:40:19 463

原创 大模型微调(finetune)方法总结-LoRA,Adapter,Prefix-tuning,P-tuning,Prompt-tuning

然后使用AdapterFusion组合N个适配器中的知识,将预训练参数Θ和全部的Adapter参数Φ固定,引入新的参数Ψ,使用N个下游任务的数据集训练,让AdapterFusion学习如何组合N个适配器解决特定任务。关于前缀/提示的设计,我们可以给模型若干的字词作为提示,比如我们想让模型生成“Obama”,那我们可以在其常见的搭配前加上上下文(例如,Barack),那么LM就会把更高的可能性分配给想要的单词。但是对于很多生成任务来说,找到合适的离散的前缀进行优化是非常困难的,尽管它的效果是不错的。

2023-08-14 19:28:03 1395

原创 知识背景工具革新登场!突破ChatGPT限制,零微调成本!

在您的需求中,我们非常荣幸为您推介一款创新的知识背景工具,为您带来全新的智能体验!📚 本地知识仓库,解答专业问题: 我们通过二元组的方式将解析后的知识存储在本地知识仓库中,构建了一个庞大而强大的知识背景。📝工具成果,突破ChatGPT限制: 我们引以为豪的成果突破了ChatGPT的限制,使工具能够处理更多内容,同时避免了微调大型模型所需的巨大花销。我们的工具为您提供高效、经济的解决方案,让您专注于获取准确、全面的专业知识。这种创新的多模态解析技术为您带来全新的体验,通过图片解析探索知识的更深层次。

2023-07-18 23:16:20 88 1

原创 GPT vs. BERT:探索两大自然语言处理模型的异同

GPT和BERT作为两个重要的自然语言处理模型,在结构、预训练目标、上下文处理、适用领域和计算资源等方面存在显著差异。GPT适用于生成式任务,能够产生连贯的文本;BERT适用于判别式任务,能够提取丰富的语义信息。了解它们的特点和适用领域有助于选择适合的模型,并在不同的自然语言处理任务中取得良好的效果。随着领域的进一步研究和技术的发展,我们可以期待GPT和BERT等模型的不断演进和应用拓展,为自然语言处理带来更多的突破。

2023-07-18 22:54:28 1615 1

原创 ChatGPT的发展历史:GPT的前世今生与对话生成的崛起

ChatGPT的成功背后是GPT模型的演进。在本文中,我们将深入探讨GPT模型的前世今生,从GPT-1到GPT-3,以及对话生成技术的崛起。GPT-1:奠定基础(2018年) GPT-1(Generative Pre-trained Transformer)于2018年发布,采用Transformer架构进行预训练。该模型通过大规模的无监督学习,从互联网文本数据中学习语言的统计特征。GPT-1展现出了惊人的语言生成能力,但在对话生成任务上还存在一些挑战,如生成的回复缺乏连贯性和上下文理解能力。

2023-07-18 22:50:40 255 1

原创 ChatGPT中的强化学习:赋予AI更强大的对话能力

ChatGPT中的强化学习应用赋予了AI更强大的对话能力,包括提高对话的流畅性、理解对话语境、控制生成输出的风格和语气,以及个性化对话体验。随着进一步的研究和发展,我们可以期待ChatGPT在未来成为一个更加智能、人性化的对话伙伴。

2023-07-18 22:42:21 450

原创 知识背景工具 共建

在当今的人工智能领域,大型语言模型如GPT在生成文本和回答问题方面表现出了惊人的能力。然而,这些模型在处理特定领域知识和实时信息方面仍存在挑战。为了解决这一问题,知识背景工具应运而生。过去,大型语言模型主要通过预训练在大规模文本数据上进行学习,但它们并没有显式存储特定的知识库。因此,它们的回答仅基于其训练数据,而无法查询特定的知识源或更新的信息。这限制了模型在特定领域或实时情境下的应用。

2023-07-16 21:54:07 44

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除