- 博客(102)
- 资源 (1)
- 收藏
- 关注
原创 关于开源大模型必须知道的 10 件事
本文将向你介绍使用开源大语言模型需要了解的 10 个关键点。阅读完本文后,你将能够在庞大的 AI 世界中找到方向,了解你需要做什么,以及完成这些任务所需的工具。
2024-05-16 17:14:13 1388 1
原创 深入理解 Kolmogorov–Arnold Networks (KAN)
最近,一篇名为 KAN: Kolmogorov–Arnold Network 的论文在机器学习领域引起了广泛关注。本文将带你快速理解 KAN 的核心概念。
2024-05-12 12:38:08 27192 6
原创 如何免费体验 gpt2-chatbot
gpt2-chatbot 被认为是 OpenAI 的下一代模型。本文介绍了 gpt2-chatbot 的能力,以及如何免费开通体验。
2024-05-03 23:06:18 1559 2
原创 解密 Sora 背后的魔法——Diffusion Transformer
随着 Sora 惊艳世界,Transformer 正逐渐替代 U-Net,成为图像和视频生成领域的新宠。本文将带大家揭示 Sora 背后的秘密,一同探索 Diffusion Transformer 的原理。
2024-05-01 12:47:39 2936 2
原创 用 PyTorch 构建液态神经网络(LNN)
在人工智能领域,液态神经网络是最关键的新兴模型之一。液态神经网络(LNN)是一种神经网络,它顺序处理数据并能够实时适应变化的数据,非常类似于人类大脑。本文介绍了如何用PyTorch实现液态神经网络。
2024-04-30 11:58:23 5333 5
原创 CUDA 编程简介
本文用尽量通俗的语言为大家讲解 GPU 的工作原理和 CUDA 异构编程。并用向量相加、矩阵相乘为例,演示了如何在 GPU 上用 CUDA 进行异构编程。
2024-04-29 19:05:34 1331 1
翻译 Sora 技术报告:作为世界模拟器的视频生成模型
本技术报告重点关注:1. 我们将所有类型的视觉数据转化为统一表示的方法,从而能够大规模训练生成模型;2. 对 Sora 模型能力和局限性的定性评价。本报告不包含模型和实施细节。
2024-02-17 23:56:35 473
原创 OpenAI Sora 初体验
OpenAI 发布全新文生视频模型 Sora。其对细节的关注、无缝的角色刻画以及生成视频的绝对质量真正将可能性提升到了一个新的高度。
2024-02-16 21:00:42 4398 4
原创 个人 AI 的革命:Nvidia‘s Chat with RTX 深度探索
Nvidia推出的 Chat with RTX 预示着个人 AI 新时代的到来。2 月 13 日,Nvidia 官宣了自家的 AI 聊天机器人,这不仅是人工智能交互的渐进式改进;更代表了个人如何利用自己的数据进行洞察、研究和知识发现的巨大转变。
2024-02-15 20:44:49 2802 2
原创 刘谦春晚魔术的数学原理
2024春晚刘谦表演了一种魔术,通过一系列操作后,最后剩下的一张牌能与之前拿出的牌拼成一张完整的牌。这个魔术利用了同余理论,通过一些故弄玄虚的手段迷惑观众,但实际上只需要关注牌的配对情况就可以揭示原理。
2024-02-12 12:35:21 1190
原创 OpenAI 开发者大会 Sam Altman 45分演讲带来哪些干货和狠货
北京时间 11 月 7 日凌晨,美国人工智能公司 OpenAI 的开发者大会正式开启,创始人 Sam Altman 在台上和同事,只用 45 分钟时间,就「轰」出了团队最新的成果 GPT-4 Turbo,后者不仅更快、有更长的上下文、而且更好的控制。
2023-11-07 10:24:20 440 1
原创 在 Mac M1 上运行 Llama 2 并进行训练
Llama 2是由领先的人工智能研究公司 Meta(前Facebook)开发并发布的下一代大型语言模型 (LLM)。旨在帮助开发人员和企业组织构建基于人工智能的生成工具和用户体验。本文将指导你完成在 Mac M1 上设置 `Llama 2` 的过程,并根据使用你自己的数据对其进行精调。
2023-10-23 13:42:18 3463 5
原创 【白话机器学习系列】白话梯度下降
梯度下降是机器学习中最常见的优化算法之一。理解它的基本实现是理解所有基于它构建的高级优化算法的基础。本文详细为大家推导了 MSE 作为损失函数时的梯度下降公式。
2023-09-09 09:02:11 713 2
原创 用 Python 微调 ChatGPT (GPT-3.5 Turbo)
备受期待的 GPT-3.5 Turbo 微调功能现已推出,为开发人员提供了完美定制人工智能模型的关键解决方案,并以前所未有的方式扩展这些自定义模型。 本文将你经历人工智能进化的惊心动魄之旅。
2023-09-08 13:51:06 3400 4
原创 Stable Diffusion — ControlNet 超详细讲解
ControlNet 是一个控制预训练图像扩散模型(例如 Stable Diffusion)的神经网络。它允许输入调节图像,然后使用该调节图像来操控图像生成。本文为大家深入剖析 ControlNet 的工作原理。
2023-09-07 15:58:02 30437 10
原创 【白话机器学习系列】白话 Dropout
Dropout 是神经网络的一种正则化技术,它在训练时以指定的概率 p(常见值为 p=0.5)丢弃一个单元(连同连接)。在测试时,所有单元都存在,但权重按 p 缩放(即变为 pw)。
2023-06-19 14:45:54 1696 1
原创 【白话机器学习系列】白话Broadcasting
张量之间进行运算需要满足一定的维数条件的,形状大小不满足条件的两个张量之间是无法进行运算的。为了能执行运算,我们通常需要将较小的张量被“拉伸”到与较大张量兼容的形状,这一步“拉伸”操作就是 Broadcasting。
2023-06-05 12:17:47 657 2
原创 Stable Diffusion 超详细讲解
本文将在《Stable Diffusion原理详解》和《Diffusion Model 深入剖析》这两篇文章的基础上,进一步细致地讲解 Stable Diffusion 的算法原理。
2023-06-03 10:42:19 27974 10
原创 【白话机器学习系列】白话张量
张量(Tensor)是向量和矩阵向 n 维的推广。了解张量如何相互作用是机器学习的基本功。本文将用通俗的语言和图例,配合 PyTorch 中张量操作方法为大家深入浅出地讲解张量的必要知识。
2023-06-02 10:52:56 916 1
原创 【白话机器学习系列】白话向量点积
点积(Dot Product)是机器学习中最常见的向量操作。本文将通过简洁易懂的语言配合大量图形为大家介绍点积运算及其背后的数学意义。
2023-06-01 11:16:51 1564
原创 TimSort——最快的排序算法
TimSort 算法是 Tim Peters 于 2001 年为 Python 语言创建的。该算法建立在插入排序和归并排序的基础之上,兼具插入排序和归并排序的优点。TimSort 的平均时间复杂度为 O(nlog(n)) ,最好情况 O(n) ,最差情况 O(nlog(n)) 。空间复杂度 O(n) ,是一个稳定的排序算法。
2023-05-31 15:52:47 4447 1
原创 让 Python 真正支持多线程
Python 至今都缺乏对多线程的原生支持。本文深入探讨 Python 无法引入多线程的背后机制,以及如何使用子解释器 API 编写真正并发的 Python 代码。
2023-05-30 10:15:43 2988 1
原创 如何成为机器学习工程师
机器学习工程师是一个综合要求很高的交叉学科岗位,要求从业者学习很多必要技能和工具,以应对实际项目中遇到的各种挑战。 本文能为励志成为机器学习工程师的人提供一个清晰的成长路线图。
2023-05-29 15:03:10 589 4
原创 Diffusion Model 深入剖析
本文深入到 Diffusion Model 内部,深入剖析 Diffusion Model 的工作原理以及它是如何生成图像的。本文要点总结:1. 扩散模型分为正向扩散和逆向扩散两部分。2. 正向扩散可以使用闭合的公式来完成。3. 可以使用经过训练的神经网络完成逆向扩散。4. 为了逼近去噪步骤 q,我们只需要使用神经网络 εθ 来近似噪声 εt。5. 对简化损失函数的训练产生更好的样本质量。
2023-05-27 18:05:02 5667 5
原创 【万字长文】深度解析 Transformer 和注意力机制(含完整代码实现)
本文几乎涵盖了关于 Transformer 和注意力机制的所有必要内容,包括自注意力、查询、键、值、多头注意力、掩码多头注意力和 Transformer 架构,以及完整的PyTorch实现。 希望阅读完本文大家对 Transformer 能有深入的理解。
2023-05-25 15:19:57 15748 31
原创 Lamini:大语言模型精调框架
Lamini 致力于解决 LLM 驱动开发中最困难的挑战之一。该框架提供了一个简单且一致的编程模型来抽象跨不同 LLM 的微调过程。我们很可能会在不久的将来看到 Lamini 被纳入不同的 LLM 框架。
2023-05-23 13:55:37 2134 1
原创 Hugging Face Transformers Agent
本文我们探索了🤗Hugging Face Transformers Agents 的功能,并将其与🦜🔗LangChain Agents 进行了比较。
2023-05-17 17:44:27 1340 1
原创 Mojo:比 Python 快 35000 倍的 AI 编程语言
Mojo是一门刚刚发布的面向 AI 开发人员的编程语言。Mojo 被设计为 Python 的超集,所以如果你已经掌握了 Python,学习 Mojo 会很容易。关键是 Mojo 将 Python 的易用性与 C 语言的性能相结合,速度比 Python 快 **35000** 倍!让你鱼与熊掌兼得。如果您对 AI 感兴趣并且已经了解 Python,那么 Mojo 绝对值得一试。 这篇文章将带给你有关 Mojo 的所有信息。
2023-05-11 20:38:49 3233 3
原创 用LangChain构建大语言模型应用
LangChain 是一个开源 Python 库,任何可以编写代码的人都可以使用它来构建 LLM 支持的应用程序。 该包为许多基础模型提供了通用接口,支持提示管理,并在撰写本文时充当其他组件(如提示模板、其他 LLM、外部数据和其他工具)的中央接口。
2023-05-01 21:11:35 7432 3
原创 Pandas 2.0发布——更快的速度更低的内存占用
Pandas 是一个用于操作数据的 Python 库,在 Python 开发人员中非常流行。4月3日,Pandas 2.0正式发布。得益于 PyArrow的引入,Pandas 2.0 实现了更快、更节省内存的操作。
2023-04-12 12:14:01 1529 1
原创 BloombergGPT: 首个金融垂直领域大语言模型
NLP 在金融技术领域的应用广泛且复杂,主要应用场景包括情感分析、命名实体识别到问答等。大语言模型 (LLM) 已被证明可以有效处理上述任务;但是,鲜少没有报道过有专门针对金融领域的文献。本作中,我们展示了 BloombergGPT 这个拥有 500 亿参数的语言模型,它采用大量金融数据训练而来。我们基于 Bloomberg 大量的数据源构建了一个 3630 亿个token数据集,这可能是迄今为止最大的特定领域数据集,并增加了来自通用数据集的 3450 亿个token。
2023-04-10 13:59:51 3745 2
原创 开源大语言模型(LLM)汇总(持续更新中)
随着ChatGPT的火爆,越来越多人希望在本地运行一个大语言模型。为此我维护了这个开源大语言模型汇总,跟踪每天不发的大语言模型和精调语言模型。
2023-04-06 16:12:36 24594 8
原创 Stable Diffusion XL:更快,更强
总的来说,新模型并没有给我留下深刻印象。MidJourney、Leonardo AI 和 Microsoft Image Generator 仍然有更好看的生成效果。尽管 Stable Diffusion XL 与之前的 AI 模型相比似乎没有显着进步,但它仍然向前迈进了一步,并且肯定还有进一步改进的空间。我期待Stability AI官方能够公布更多细节,而且我坚信最终正式发布的产品会比预览模型更好。
2023-04-04 15:39:17 3430 3
基于TextCNN实现文本分类
2023-02-19
Rust机器学习之Linfa完整项目代码(含数据集)
2023-02-13
用二元泊松模型预测2022年世界杯结果模型源码
2023-02-13
Discrete mean estimates and the Landau-Siegel zero.pdf
2022-11-06
CSDN编辑器如何加入SVG图片
2022-11-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人