AIGC经典论文分享
文章平均质量分 92
我有魔法WYMF
微信-算法专家
展开
-
苹果放弃造车计划,专家称之All in AI / 阿里巴巴主席蔡崇信:中国电子商务渗透率有望超过40% |魔法半周报
我有魔法✨为你劈开信息大海❗高效获取AIGC的热门事件🔥,更新AIGC的最新动态,生成相应的魔法简报,节省阅读时间👻。原创 2024-04-03 10:19:07 · 845 阅读 · 0 评论 -
GPT-3解读:惊艳世界的模型原来是大力出奇迹
人类有时只需少数示例或简单说明,便能轻松应对全新的语言任务,然而当前的自然语言处理系统仍面临巨大挑战。很多情况下,系统仍需通过特定任务的微调才能获得出色的效果。在这个挑战的推动下,OpenAI的研究人员努力改进了GPT-2 模型的有效性,并发布了GPT-3模型。GPT-3是一个拥有1750亿模型参数的自回归语言模型。与GPT-2相比,GPT-3的参数量翻了116倍。与此同时,GPT-3采用了GPT-1最初提出的Few-shot设置,即模型在处理子任务时不再依赖大量样例,而是在可控范围内给出一些样本。原创 2023-11-30 16:47:14 · 887 阅读 · 0 评论 -
OpenAI DALL·E 3文生图模型技术揭秘(建议收藏)
DALL·E 3采用了一种全新的方法来解决prompt following问题,即caption改进(caption improvement)。首先训练了一个强大的图像-文本描述生成器,这个生成器能够以详细准确的方式描述图像。接着,将这个图像-文本描述生成器应用于文生图的训练数据集,生成更加详细的图像文本描述内容,从而得到了配对质量较高的新数据集。最后,使用这个优质的新数据集来训练文生成图模型。通过这种方法,可以有效地提升文生成图模型的性能和生成质量。原创 2023-11-13 18:37:06 · 1008 阅读 · 0 评论 -
用户交互引导大模型生成内容特征,LLM-Rec框架助力个性化推荐!
本篇论文主要研究使用大语言模型(LLMs)来提升个性化推荐性能的策略,核心的方式是使用大模型对推荐模型的输入文本做数据增强。论文中提出了LLM-Rec的框架,该框架包括四种prompt策略:基本的prompt、推荐驱动的prompt、交互引导的prompt、推荐驱动+交互引导的混合prompt。通过实验表明,使用LLM增强的文本融入到推荐中可以提升推荐性能。推荐驱动和交互引导的提示策略有助于LLM理解全局和局部特性,凸显了多样化prompt设计和输入增强技术在增强LLM推荐能力方面的重要性。原创 2023-11-09 12:11:24 · 887 阅读 · 0 评论 -
GPT-2:基于无监督多任务学习的语言模型
GPT-2是自然语言处理领域的重要里程碑作品,采用了Transformer模型,展现出强大的语言生成能力。作为OpenAI开发的杰出之作,GPT-2令人惊叹。它的模型规模达到了15亿,并通过在大规模语料库WebText 上进行自监督学习进行了训练。GPT-2的设计思想是通过大量网络文本数据的学习,以无监督的方式掌握语言的模式和结构。在没有具体任务指导的情况下,GPT-2能够生成与人类书写风格相似且连贯的文本,并回答输入文本中提出的问题。原创 2023-11-07 11:36:04 · 319 阅读 · 0 评论 -
ChatGPT:推荐系统的颠覆者?阿里团队的研究带你揭开神秘面纱
研究者们精心设计了一系列实验,全面评估了ChatGPT在五个不同推荐场景中的表现,包括评分预测、序列推荐、直接推荐、解释生成和评论总结。结果显示,ChatGPT在某些任务中已经展现出不错的效果,而在某些任务中则低于基线水平,但人类评估显示,ChatGPT不仅能够真正理解提供的信息,还能生成更清晰、更有说服力的结果。这项研究的成果揭示了CatGPT在推荐系统领域的巨大潜力,为未来的研究提供了新的方向和灵感。在推荐系统领域,传统的方法往往被束缚在任务特定的框架内,缺乏灵活性和泛化能力。原创 2023-11-03 18:04:21 · 444 阅读 · 0 评论 -
GPT-3解读:惊艳世界的模型原来是大力出奇迹
人类有时只需少数示例或简单说明,便能轻松应对全新的语言任务,然而当前的自然语言处理系统仍面临巨大挑战。很多情况下,系统仍需通过特定任务的微调才能获得出色的效果。在这个挑战的推动下,OpenAI的研究人员努力改进了GPT-2 模型的有效性,并发布了GPT-3模型。GPT-3是一个拥有1750亿模型参数的自回归语言模型。与GPT-2相比,GPT-3的参数量翻了116倍。与此同时,GPT-3采用了GPT-1最初提出的Few-shot设置,即模型在处理子任务时不再依赖大量样例,而是在可控范围内给出一些样本。原创 2023-11-02 11:21:44 · 270 阅读 · 0 评论 -
InstructGPT论文精读:大模型调教之道(ChatGPT学习必读)
语言模型的规模增大并不能保证其更好地遵循用户的意图。较大规模的语言模型可能会产生不真实、有害或对用户毫无用处的输出,与用户意图背道而驰。为了解决这一问题,研究人员通过使用人类反馈,使语言模型在各种任务中能够与用户意图保持一致。首先,通过收集标注员编写或OpenAI API提交的prompts来微调GPT-3以满足所需行为。接着,利用人类对模型输出进行排序的数据集,采用强化学习进行进一步微调,最终形成了模型。人类评估结果显示,原创 2023-11-01 12:31:04 · 1348 阅读 · 12 评论 -
一文读懂GPT-1:生成式预训练如何提升语言理解
GPT-1是一种半监督的语言模型,它巧妙地结合了无监督预训练和有监督微调,以优化语言理解任务。其目标是学习一种通用的语言表示,只需微调,就能在各种任务中灵活迁移。GPT-1首先利用大量未标注文本进行预训练,然后针对特定任务进行有监督的微调。它采用了Transformer作为模型架构,这种架构提供了更加结构化的记忆,以便处理文本中的长期依赖关系,从而实现了卓越的迁移性能。在迁移训练过程中,GPT1能够在最小化模型结构更改的同时,有效地进行微调。原创 2023-10-26 11:16:00 · 356 阅读 · 0 评论