![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 84
xuejianxinokok
这个作者很懒,什么都没留下…
展开
-
关于句子嵌入Sentence Embeddings 你想知道的一切(也许更多)
多么美妙的旅程啊!我们只是将句子嵌入从 0 变为 1。我们了解了它们是什么、如何计算它们、如何比较它们以及如何缩放它们。我们还看到了嵌入的一些很酷的应用,例如语义搜索和释义挖掘。我希望这篇博文能让您很好地理解什么是句子嵌入以及如何使用它们。这是该系列的第一部分。还需要学习什么?向量数据库的作用如何将嵌入用于更复杂的排名系统主题建模Multimodality 多模态如何训练自己的嵌入模型关于 RAG 的所有信息每个人都会有一个时间!现在,我建议休息一下,检查一下你的知识。原创 2024-04-26 08:52:59 · 1439 阅读 · 0 评论 -
深度学习中的优化问题
我在 2019 年底左右开始撰写有关数学和机器学习的文章;从那时起,我写了数百篇教育文章,揭示了我们日常使用的算法背后的细节。让写文章的人 感到尴尬的一个方法是:让他们阅读他们早期的作品。我也不例外。距离 2019 年已经过去了很长一段时间。(尽管我的写作速度仍然缓慢。尽管如此,还是有几篇早期的文章让我感到自豪。我捕捉到直觉和精确度之间最佳平衡点的帖子。最近,我一直致力于重新制作其中最好的部分。这是第一个,我们从零开始优化百万变量的函数。让我们开始吧!这是一个复杂的问题,因为性能取决于多个因素。原创 2024-03-28 11:32:18 · 746 阅读 · 1 评论 -
大数定律中的大数是多大?
大数!=大的数字。100 算大吗?这取决于我们是否将其与 0.001 或 100000 进行比较?就像生活中的很多事情一样,“大”这个词是相对的。在这篇文章中,我们解释了“大”有多大,并证明了为什么您对 LLN 的理解(可能)是错误的。原创 2024-03-27 11:10:38 · 1067 阅读 · 0 评论 -
AI时代每个程序员都应该了解 GPU 基础知识
我知道理解这么多新术语和概念是令人畏惧的。让我们总结一下要点以便快速回顾。GPU 由多个流式多处理器 (streaming multiprocessors (SM)) 组成,其中每个 SM 具有多个处理核心。有一个片外全局存储器,它是 HBM 或 DRAM。距离芯片上的SM较远,延迟较高。有一个片外 L2 缓存和一个片内 L1 缓存。这些 L1 和 L2 高速缓存的运行方式与 CPU 中 L1/L2 高速缓存的运行方式类似。每个 SM 上都有少量可配置的共享内存。这是核心之间共享的。原创 2024-01-24 11:23:17 · 871 阅读 · 0 评论 -
Embeddings:是什么以及它们为何重要?
向量嵌入是一项与更广泛的大型语言模型领域相关的技术——ChatGPT 和 Bard and Claude 背后的技术。向量嵌入基于一个技巧:获取一段内容(在本例中为博客条目)并将该内容转换为浮点数数组。该数组的关键在于,无论内容有多长,它的长度始终相同。长度由您使用的嵌入模型定义 - 数组的长度可能是 300、1,000 或 1,536 个数字。思考这个数字数组的最好方法是将其想象为一个非常奇特的多维空间中的坐标。原创 2024-01-19 13:36:24 · 1722 阅读 · 0 评论 -
pytorch TORCH.NN 到底是什么?
现在有一个通用的数据管道和训练循环,可以使用它来使用 Pytorch 训练多种类型的模型。要了解现在训练模型有多简单,请查看mnist_sample 笔记本。当然,您需要添加许多内容,例如数据增强、超参数调整、监控训练、迁移学习等。这些功能在 fastai 库中可用,该库是使用本教程中所示的相同设计方法开发的,为希望进一步开发模型的从业者提供了一个自然的下一步。在本教程开始时承诺,我们将通过示例解释torch.nn、、Dataset和DataLoader. 所以下边总结一下所看到的:torch.nn。原创 2022-11-01 17:01:24 · 397 阅读 · 0 评论 -
pytorch 保存和加载模型
在本节中,我们将了解如何通过保存、加载和运行模型预测来保持模型状态。原创 2022-10-31 14:02:16 · 361 阅读 · 0 评论 -
pytorch TorchScript 简介
本文介绍 TorchScript,它是 PyTorch 模型(nn.Module的子类)的中间表示,可以在 C++ 等高性能环境中运行。forward我们希望在您完成本教程后,您将继续 学习,该教程将引导您了解从 C++ 实际调用 TorchScript 模型的示例。原创 2022-10-28 13:45:26 · 916 阅读 · 0 评论 -
pytorch 构建神经网络
我们通过子类化定义我们的神经网络nn.Module,并在__init__中初始化神经网络层。每个nn.Module子类都在forward方法中实现对输入数据的操作。)我们创建NeuralNetwork的实例,并将其移动到device,并打印其结构。))要使用模型,我们将输入数据传递给它。这将执行模型的forward,以及一些后台操作。但不要直接调用!在输入上调用模型会返回一个二维张量,其中 dim=0 对应于每个类的 10 个原始预测值的每个输出,而 dim=1 对应于每个输出的各个值。我们通过一个。原创 2022-10-25 17:33:36 · 95 阅读 · 0 评论 -
pytorch 数据预处理和转换
数据并不总是以训练机器学习算法所需的最终需要的格式出现。我们可以使用来对数据进行一些处理并使其适合训练。所有 TorchVision 数据集都有两个参数 -transform修改特征和修改标签 - 它们都是包含转换逻辑的可调用对象。模块提供了几个开箱即用的常用转换。FashionMNIST 特征是 PIL 图像格式,标签是整数。对于训练,我们需要将特征作为归一化张量,并将标签作为 one-hot 编码张量。我们可以使用ToTensor和Lambda进行这些转换。原创 2022-10-19 09:02:54 · 423 阅读 · 0 评论 -
pytorch 自定义数据加载器
_init__、__len__和。比如: FashionMNIST 图像存储在一个目录img_dir中,它们的标签分别存储在一个 CSV 文件中。在接下来的部分中,我们将分析每个函数中发生的事情。import os。原创 2022-10-18 10:55:24 · 512 阅读 · 0 评论 -
pytorch 张量基础
张量是一种特殊的数据结构,与数组和矩阵非常相似。在 PyTorch 中,我们使用张量对模型的输入和输出以及模型的参数进行编码。张量类似于ndarray,除了张量可以在 GPU 或其他硬件加速器上运行。事实上,张量和 NumPy 数组通常可以共享相同的底层内存,从而无需复制数据(请参阅)。张量也针对自动微分进行了优化(我们将在稍后的部分中看到更多相关内容)。如果您熟悉 ndarrays,那么您对 Tensor API 会很快熟悉。原创 2022-10-17 10:57:06 · 1427 阅读 · 0 评论 -
PyTorch 快速入门
这里我们定义了batch size为64,即dataloader 在每次迭代时都会返回 64个数据和其对应的标签。在每个epoch,模型都会学习参数以做出更好的预测。在本教程中,我们使用 FashionMNIST 数据集。在单个训练循环中,模型对训练数据集进行预测(分批输入),并反向传播预测误差以调整模型的参数。为了加速神经网络中的操作,我们将其移至 GPU(如果可用)。,所有这些库都包含数据集。在本教程中,我们将使用 TorchVision 数据集。我们还根据测试数据集检查模型的性能,以确保它正在学习。原创 2022-10-14 15:22:26 · 438 阅读 · 1 评论 -
pytorch 自动微分基础原理
PyTorch 的Autograd功能是 PyTorch 灵活快速地构建机器学习项目的一部分。它允许在复杂计算中快速轻松地计算多个偏导数(也称为梯度)。该操作是基于反向传播的神经网络学习的核心。autograd 的强大之处在于它在运行时动态跟踪你的计算,这意味着如果你的模型有决策(判断)分支,或者只有在运行时才知道长度的循环,计算仍然会被正确跟踪,你会得到正确的梯度来驱动学习。原创 2022-10-13 16:18:02 · 712 阅读 · 0 评论 -
通俗的理解矩阵分解的意义
手机查看图片不知道为什么不能显示,请在电脑上查看。我们日常 喝的饮料 和 吃的药片 都是由一些 基本元素 调和而成的比如:我们列出以下公式 B:可乐=0.07* 能量+ 0*蛋白质+0*脂肪+0.12* 碳水化合物 +0.02* 钠雪碧=0.02* 能量+ 0*蛋白质+0*脂肪+0.04* 碳水化合物 +0.01* 钠芬达=0.02* 能量+ 0*蛋白质+原创 2018-02-01 16:41:22 · 14886 阅读 · 3 评论