Agent+RAG+大纲驱动,AI创作新风暴

嘿,大家好!这里是一个专注于AI智能体的频道~ 争取给家人们带来越来越多的干货!

今天给大家分享斯坦福大学最近的一项研究,探讨了如何利用LLMs从头开始撰写基础、结构良好的长篇文章,达到与维基百科页面相当的广度和深度。(后文有代码结果示例!)

Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models

我们研究如何应用大型语言模型从头开始编写扎根且有组织的长篇文章,其广度和深度与维基百科页面相当。这个尚未充分探讨的问题在写作前阶段提出了新的挑战,包括如何在写作前研究主题并准备大纲。我们提出了STORM ,一种通过检索和多视角提问来合成主题大纲的写作系统。STORM 通过以下方式对预写作阶段进行建模:(1) 在研究给定主题时发现不同的观点,(2) 模拟对话,持不同观点的作者向基于可信互联网来源的主题专家提出问题,(3) 整理收集到的信息创建一个轮廓。为了进行评估,我们构造了 FreshWiki(最新高质量维基百科文章的数据集),并制定了大纲评估来评估预写作阶段。我们进一步收集经验丰富的维基百科编辑的反馈。与由大纲驱动的检索增强基线生成的文章相比,STORM 的更多文章被认为是有组织的(绝对增加了 25%)并且覆盖范围广泛(增加了 10%)。专家反馈还有助于识别生成接地气的长文章的新挑战,例如来源偏见转移和不相关事实的过度关联。

先整出来一个大纲,然后再写作。但是,这事儿说起来容易做起来难,因为你得先了解一大堆信息,然后才能写出大纲来。

当给定一个主题之后,它先去网上搜一堆类似主题的维基百科文章,然后琢磨出不同的视角。这样,它就能从多个角度提出问题,而不是只停留在表面。

接下来,STORM会模拟一场对话,就像两个人聊天一样。一边是“作家”,其实就是STORM自己,另一边是“专家”,这个专家是一个基于RAG的回答过程。

在对话中,STORM会根据话题、自己的视角和之前的对话内容,提出问题。然后,它会把这些问题变成搜索关键词,去找答案。找到的答案还得过一遍筛子,确保来源靠谱。

找到答案后,STORM会整理一下,形成一个答案。这个答案不仅会用来回应问题,还会存起来,以后写文章的时候用得上。

聊了一大堆后,STORM就对话题了解得差不多了。这时候,它会开始写大纲。先根据自己的理解,弄一个初步的版本,然后再结合之前的对话,把大纲做得更完整。

最后,在预写阶段创建的大纲和收集的参考资料的基础上,逐段撰写全文。每段都会根据语义相似性从参考资料中检索相关信息,并生成带有引用的文本。

在langgraph的tutorial中,已经有了这个算法的教程(虽然论文是上个月出的~,这也是上周推文中提到的agent是否要用框架一方面把。)

代码地址见后文,具体内容不复制了,可以看看例子,

输入:“百万级上下文窗口语言模型对检索增强生成(RAG)的影响” 初始大纲:

在这里插入图片描述
在这里插入图片描述

扩展后很复杂:

在这里插入图片描述

最后写的有那味道了:
在这里插入图片描述

代码地址:https://github.com/langchain-ai/langgraph/blob/main/docs/docs/tutorials/storm/storm.ipynb

好了,这就是我今天想分享的内容。如果你对构建AI智能体感兴趣,别忘了点赞、关注噢~

随着大模型的持续爆火,各行各业都在开发搭建属于自己企业的私有化大模型,那么势必会需要大量大模型人才,同时也会带来大批量的岗位?“雷军曾说过:站在风口,猪都能飞起来”可以说现在大模型就是当下风口,是一个可以改变自身的机会,就看我们能不能抓住了。

AI时代的职场新潮流

听说AI要来抢工作了?别担心,新岗位可比旧岗位有趣多了!想象一下,你从搬砖工升级成了机器人操作员,从算盘小能手变成了大数据分析师,这不是美滋滋吗?所以,社会生产效率提升了,我们也能更轻松地工作。不过,想成为AI界的佼佼者?那就得赶紧学起来,不然就会被同行们甩得连AI的尾巴都摸不着了!

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

根据提供的引用内容,可以得知prompt+RAG的流程如下: 1. 首先,使用Retriever部分在知识库中检索出top-k个匹配的文档zi。 2. 然后,将query和k个文档拼接起来作为QA的prompt,送入seq2seq模型。 3. seq2seq模型生成回复y。 4. 如果需要进行Re-rank,可以使用LLM来rerank,给LLM写好prompt即可。 下面是一个简单的示例代码,演示如何使用prompt+RAG: ```python from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration # 初始化tokenizer、retriever和seq2seq模型 tokenizer = RagTokenizer.from_pretrained('facebook/rag-token-base') retriever = RagRetriever.from_pretrained('facebook/rag-token-base', index_name='exact', use_dummy_dataset=True) model = RagSequenceForGeneration.from_pretrained('facebook/rag-token-base') # 设置query和context query = "What is the capital of France?" context = "France is a country located in Western Europe. Paris, the capital city of France, is known for its romantic ambiance and iconic landmarks such as the Eiffel Tower." # 使用Retriever部分检索top-k个匹配的文档 retrieved_docs = retriever(query) # 将query和k个文档拼接起来作为QA的prompt input_dict = tokenizer.prepare_seq2seq_batch(query, retrieved_docs[:2], return_tensors='pt') generated = model.generate(input_ids=input_dict['input_ids'], attention_mask=input_dict['attention_mask']) # 输出生成的回复 generated_text = tokenizer.batch_decode(generated, skip_special_tokens=True)[0] print(generated_text) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值