生成AI
文章平均质量分 94
分享最前沿的生成AI技术和最实用的生成AI使用技巧
JarodYv
十年C,十年Python,深耕算法和机器学习领域,Python全能开发工程师。
近两年专注于AIGC和大模型应用开发。
热爱数学,分享内容偏硬核烧脑,但绝对干货,绝不雷同。
展开
-
关于开源大模型必须知道的 10 件事
本文将向你介绍使用开源大语言模型需要了解的 10 个关键点。阅读完本文后,你将能够在庞大的 AI 世界中找到方向,了解你需要做什么,以及完成这些任务所需的工具。原创 2024-05-16 17:14:13 · 1192 阅读 · 1 评论 -
5 个免费使用 GPT-4o 的方法
在这篇文章中,我将分享五种免费方式,让您亲自体验 GPT-4o 模型。原创 2024-05-15 14:58:11 · 31498 阅读 · 7 评论 -
深入理解 Kolmogorov–Arnold Networks (KAN)
最近,一篇名为 KAN: Kolmogorov–Arnold Network 的论文在机器学习领域引起了广泛关注。本文将带你快速理解 KAN 的核心概念。原创 2024-05-12 12:38:08 · 16806 阅读 · 5 评论 -
如何免费体验 gpt2-chatbot
gpt2-chatbot 被认为是 OpenAI 的下一代模型。本文介绍了 gpt2-chatbot 的能力,以及如何免费开通体验。原创 2024-05-03 23:06:18 · 1487 阅读 · 2 评论 -
解密 Sora 背后的魔法——Diffusion Transformer
随着 Sora 惊艳世界,Transformer 正逐渐替代 U-Net,成为图像和视频生成领域的新宠。本文将带大家揭示 Sora 背后的秘密,一同探索 Diffusion Transformer 的原理。原创 2024-05-01 12:47:39 · 2611 阅读 · 2 评论 -
用 PyTorch 构建液态神经网络(LNN)
在人工智能领域,液态神经网络是最关键的新兴模型之一。液态神经网络(LNN)是一种神经网络,它顺序处理数据并能够实时适应变化的数据,非常类似于人类大脑。本文介绍了如何用PyTorch实现液态神经网络。原创 2024-04-30 11:58:23 · 3333 阅读 · 5 评论 -
CUDA 编程简介
本文用尽量通俗的语言为大家讲解 GPU 的工作原理和 CUDA 异构编程。并用向量相加、矩阵相乘为例,演示了如何在 GPU 上用 CUDA 进行异构编程。原创 2024-04-29 19:05:34 · 1272 阅读 · 1 评论 -
Sora 技术实现
本文通过 Sora 技术报告和 Sora 团队核心成员过往的论文,来追溯 Sora 的技术实现方案。原创 2024-02-20 16:56:54 · 1242 阅读 · 0 评论 -
Sora 技术报告:作为世界模拟器的视频生成模型
本技术报告重点关注:1. 我们将所有类型的视觉数据转化为统一表示的方法,从而能够大规模训练生成模型;2. 对 Sora 模型能力和局限性的定性评价。本报告不包含模型和实施细节。翻译 2024-02-17 23:56:35 · 423 阅读 · 0 评论 -
OpenAI Sora 初体验
OpenAI 发布全新文生视频模型 Sora。其对细节的关注、无缝的角色刻画以及生成视频的绝对质量真正将可能性提升到了一个新的高度。原创 2024-02-16 21:00:42 · 4302 阅读 · 4 评论 -
个人 AI 的革命:Nvidia‘s Chat with RTX 深度探索
Nvidia推出的 Chat with RTX 预示着个人 AI 新时代的到来。2 月 13 日,Nvidia 官宣了自家的 AI 聊天机器人,这不仅是人工智能交互的渐进式改进;更代表了个人如何利用自己的数据进行洞察、研究和知识发现的巨大转变。原创 2024-02-15 20:44:49 · 2713 阅读 · 2 评论 -
陶哲轩如何用 GPT-4 辅助数学研究
快快围观加州理工数学系教授、菲尔茨奖得主陶哲轩如何用 GPT-4 辅助数学研究。原创 2024-02-04 11:33:53 · 1192 阅读 · 0 评论 -
OpenAI 开发者大会 Sam Altman 45分演讲带来哪些干货和狠货
北京时间 11 月 7 日凌晨,美国人工智能公司 OpenAI 的开发者大会正式开启,创始人 Sam Altman 在台上和同事,只用 45 分钟时间,就「轰」出了团队最新的成果 GPT-4 Turbo,后者不仅更快、有更长的上下文、而且更好的控制。原创 2023-11-07 10:24:20 · 418 阅读 · 1 评论 -
【万字长文】向 AI 提问的艺术
本文作为一份提示工程技巧汇总,旨在帮助您理解并运用各种提示技术,从而让 AI 生成高质量答案。原创 2023-10-23 15:24:59 · 966 阅读 · 1 评论 -
Stable Diffusion 超详细讲解
本文将在《Stable Diffusion原理详解》和《Diffusion Model 深入剖析》这两篇文章的基础上,进一步细致地讲解 Stable Diffusion 的算法原理。原创 2023-06-03 10:42:19 · 25172 阅读 · 10 评论 -
Diffusion Model 深入剖析
本文深入到 Diffusion Model 内部,深入剖析 Diffusion Model 的工作原理以及它是如何生成图像的。本文要点总结:1. 扩散模型分为正向扩散和逆向扩散两部分。2. 正向扩散可以使用闭合的公式来完成。3. 可以使用经过训练的神经网络完成逆向扩散。4. 为了逼近去噪步骤 q,我们只需要使用神经网络 εθ 来近似噪声 εt。5. 对简化损失函数的训练产生更好的样本质量。原创 2023-05-27 18:05:02 · 5150 阅读 · 5 评论 -
【万字长文】深度解析 Transformer 和注意力机制(含完整代码实现)
本文几乎涵盖了关于 Transformer 和注意力机制的所有必要内容,包括自注意力、查询、键、值、多头注意力、掩码多头注意力和 Transformer 架构,以及完整的PyTorch实现。 希望阅读完本文大家对 Transformer 能有深入的理解。原创 2023-05-25 15:19:57 · 11994 阅读 · 25 评论 -
Lamini:大语言模型精调框架
Lamini 致力于解决 LLM 驱动开发中最困难的挑战之一。该框架提供了一个简单且一致的编程模型来抽象跨不同 LLM 的微调过程。我们很可能会在不久的将来看到 Lamini 被纳入不同的 LLM 框架。原创 2023-05-23 13:55:37 · 1982 阅读 · 1 评论 -
5个值得一试的开源大语言模型
本文为大家整理了5个效果优秀和开源大语言模型,供大家学习研究。原创 2023-05-22 17:53:06 · 2761 阅读 · 1 评论 -
Hugging Face Transformers Agent
本文我们探索了🤗Hugging Face Transformers Agents 的功能,并将其与🦜🔗LangChain Agents 进行了比较。原创 2023-05-17 17:44:27 · 1285 阅读 · 1 评论 -
用LangChain构建大语言模型应用
LangChain 是一个开源 Python 库,任何可以编写代码的人都可以使用它来构建 LLM 支持的应用程序。 该包为许多基础模型提供了通用接口,支持提示管理,并在撰写本文时充当其他组件(如提示模板、其他 LLM、外部数据和其他工具)的中央接口。原创 2023-05-01 21:11:35 · 7364 阅读 · 3 评论 -
BloombergGPT: 首个金融垂直领域大语言模型
NLP 在金融技术领域的应用广泛且复杂,主要应用场景包括情感分析、命名实体识别到问答等。大语言模型 (LLM) 已被证明可以有效处理上述任务;但是,鲜少没有报道过有专门针对金融领域的文献。本作中,我们展示了 BloombergGPT 这个拥有 500 亿参数的语言模型,它采用大量金融数据训练而来。我们基于 Bloomberg 大量的数据源构建了一个 3630 亿个token数据集,这可能是迄今为止最大的特定领域数据集,并增加了来自通用数据集的 3450 亿个token。原创 2023-04-10 13:59:51 · 3574 阅读 · 2 评论 -
开源大语言模型(LLM)汇总(持续更新中)
随着ChatGPT的火爆,越来越多人希望在本地运行一个大语言模型。为此我维护了这个开源大语言模型汇总,跟踪每天不发的大语言模型和精调语言模型。原创 2023-04-06 16:12:36 · 24285 阅读 · 8 评论 -
Stable Diffusion XL:更快,更强
总的来说,新模型并没有给我留下深刻印象。MidJourney、Leonardo AI 和 Microsoft Image Generator 仍然有更好看的生成效果。尽管 Stable Diffusion XL 与之前的 AI 模型相比似乎没有显着进步,但它仍然向前迈进了一步,并且肯定还有进一步改进的空间。我期待Stability AI官方能够公布更多细节,而且我坚信最终正式发布的产品会比预览模型更好。原创 2023-04-04 15:39:17 · 3377 阅读 · 3 评论 -
图解NLP模型发展:从RNN到Transformer
本文以NLP模型发展为脉络,详细地解释了RNN、LSTM、GRU、seq2seq、注意力机制和Transformer。每一个技术都给出了清晰的图形化解释,便于大家理解。其中重点解释了Transformer的各个部分,因为Transformer 作为一个重要的里程碑,影响并创建了许多先进的 NLP 模型,如 GPT-3、BERT 等。原创 2023-03-24 12:11:34 · 3409 阅读 · 3 评论 -
文心一言 vs GPT-4 —— 全面横向比较
本文从语义理解、内容创作、逻辑推理、编码能力、数学能力、人格模拟6个维度对文心一言和GPT-4进行了全面系统地横向比较。原创 2023-03-20 18:44:10 · 44890 阅读 · 82 评论 -
GPT-4 API 接口调用及价格分析
对开发者来说,GPT-4最激动人心的是API接口同步发布。我今天获得了API访问权限,本文将跟大家分享GPT-4 API接口的使用以及大家关心的价格分析。原创 2023-03-19 15:48:02 · 58591 阅读 · 23 评论 -
OpenAI 发布GPT-4——全网抢先体验
总的来说,GPT-4在推理能力上比GPT-3.5进步巨大,很多之前的问题都得到了修正和改良。我还没有测试GPT-4的多模能力,后面我会继续进行更多的测试,并即时更新文章分享给大家。原创 2023-03-15 11:52:23 · 52627 阅读 · 50 评论 -
万字长文:Stable Diffusion 保姆级教程
万字长文,超详细一步一步教你在本地部署运行当下超火的Stable Diffusion模型,生成各种风格图像。原创 2023-03-10 11:25:19 · 96869 阅读 · 114 评论 -
ChatGPT强化学习大杀器——近端策略优化(PPO)
近端策略优化是当前最先进的强化学习 (RL) 算法。这种优雅的算法可以用于各种任务,并且已经在很多项目中得到了应用,最近火爆的ChatGPT就采用了该算法。本文重点讲解近端策略优化算法,并用PyTorch从头实现一遍。原创 2023-03-06 10:00:59 · 10452 阅读 · 12 评论 -
成本降低90%,OpenAI正式开放ChαtGΡΤ
今天凌晨,OpenAI官方发布ChatGPT和Whisper的API,开发人员现在可以通过API使用最新的文本生成和语音转文本功能。原创 2023-03-02 18:11:46 · 36976 阅读 · 13 评论 -
Stable Diffusion原理详解
本文向大家介绍了图像生成领域最前沿的Stable Diffusion模型。本质上Stable Diffusion属于潜在扩散模型(Latent Diffusion Model)。潜在扩散模型在生成细节丰富的不同背景的高分辨率图像方面非常稳健,同时还保留了图像的语义结构。 因此,潜在扩散模型是图像生成即深度学习领域的一项重大进步。原创 2023-03-01 14:58:35 · 21500 阅读 · 6 评论 -
利用GPT-3 Fine-tunes训练专属语言模型
ChatGPT强大的自然语言理解力和表达力,目前只表现在通用领域。一旦进入专业领域,ChatGPT经常“一本正经,胡说八道”。此时用特定领域的知识对模型进行微调是时间成本和经济成本最高的解决方案。原创 2023-02-27 15:46:22 · 9173 阅读 · 11 评论 -
用Python+ChatGPT批量生成论文概述
用python+GPT-3 API开发了一个可以直接从arxiv地址生成论文概述的工具,大大提升论文阅读速度。原创 2023-02-25 21:44:11 · 4821 阅读 · 1 评论 -
GPT-4——比GPT-3强100倍
ChatGPT的地位可能即将被自家的GPT-4超越。原创 2023-02-22 15:14:19 · 9751 阅读 · 2 评论 -
让 ChatGPT 成为算法工程师的数据助理
ChatGPT在编码速度和编码习惯上都完胜人类工程师。这让我不得不开始担心程序员未来的饭碗。程序员这个曾经被认为是最不可能被AI取代的职业,如今将面临来自ChatGPT的巨大挑战。根据测试,ChatGPT已经通过Google L3级工程师测试,这意味着大部分基础coding的工作可以由ChatGPT完成。尽管ChatGPT在涉及业务的任务上表现不佳,但未来更可能的工作方式是架构师或设计师于ChatGPT协同完成工作,不再需要编码的码农。原创 2023-02-19 10:55:15 · 54516 阅读 · 92 评论 -
OpenAI最新博文:人工智能系统的行为塑造与决策权归属
2月16日,OpenAI 博客发布最新文章"How should AI systems behave, and who should decide?"。文中OpenAI首次澄清了ChatGPT的行为是如何塑造的,以及进一步的改进计划。并且宣布未来会允许更多的用户定制,并在更多领域的决策中获得更多的公众投入。本文是对这篇博客的翻译,希望大家喜欢。翻译 2023-02-17 16:20:16 · 642 阅读 · 1 评论 -
ChatGPT模型中的惩罚机制
ChatGPT中,除了采样,还有惩罚机制也能控制文本生成的多样性和创意性。本文将详细为大家讲解ChatGPT种的两种惩罚机制,以及对应的`frequency_penalty `和`presence_penalty `参数。原创 2023-02-16 15:26:04 · 10223 阅读 · 1 评论 -
ChatGPT模型采样算法详解
采样算法对ChatGPT的文本生成质量至关重要。本文重点讲解ChatGPT中temperature和top_p的采样原理,以及它们对模型输出的影响。帮助大家生成更灵活生动的内容。原创 2023-02-15 11:00:00 · 19929 阅读 · 21 评论 -
OpenAI GPT-3模型详解
针对文本生成和代码生成这两大类场景,OpenAPI分别提供了GPT-3和Codex模型,本文将为大家详细介绍这两个模型。原创 2023-02-11 15:53:50 · 18909 阅读 · 35 评论