机器学习
文章平均质量分 80
苏雨流丰
这个作者很懒,什么都没留下…
展开
-
CS224N第二课作业--word2vec与skipgram
word2vec 的关键思想是: 给定一个中心词ccc, 一个大小为 nnn 的窗口, 那么相对于 ccc 的上下文就是 OOO, 例如在文本: 中, 若 ccc 为 , n=2n=2n=2, 则 OOO 为 这4个单词.因此, Skip-gram word2vec 的目的就是学习一个概率分布: P(O∣C)P(O|C)P(O∣C). 特别的, 对于一个特定的中心词 ccc 和一个特定的上下文单词 ooo, 我们有: P(O=o∣C=c)=exp(uoTvc)Σw∈Vocabexp(uwTvc)P原创 2024-04-12 21:23:11 · 1050 阅读 · 0 评论 -
CS224N课程笔记,第一课,词向量的演变
Word vectors, feed-forward networks, recurrent networks, attention, encoder-decoder models, transformers, large pre-trained language models, Word meaning, dependency parsing, machine translation, question answering, Distributional semantics大家好.欢迎来到斯坦福大学的CS原创 2024-04-02 15:09:58 · 490 阅读 · 0 评论 -
CS224N第一课作业--词向量与共现矩阵
light 常见含义灯光、轻的、轻松的、点燃等等含义, 从输出来看, 这包含了它的同义词和反义词, 反义词例如 dark 是黑暗的, heavy 是重的, bule 忧郁的等等.现在我们有了词向量,我们需要一种方法来量化单个词之间的相似性,根据这些向量。接下来读入词库, 生成词表, 计算共现矩阵, 最后执行降维, 挑选一部分词汇将他们可视化。统计所有出现的单词, 为它们排序, 返回词表和词表长度.个单词, 把它们合并为矩阵, 同时返回单词编号字典.中单词的索引, 因此若词表的大小为 V, 则。原创 2024-04-01 16:27:03 · 930 阅读 · 0 评论 -
PyTorch基础知识讲解(二)tensor的基本属性
tensor是一种专有的数据结构,与数组和矩阵非常相似。在PyTorch中,我们使用tensor来编码一个模型的输入和输出,以及模型的参数。tensor类似于NumPy的ndarrays,只是tensor可以在GPU或其他硬件加速器上运行。事实上,tensor和NumPy数组通常可以共享相同的底层内存,不需要复制数据。tensor还为自动微分进行了优化(我们将在后面的Autograd部分看到更多关于这一点)。如果你熟悉ndarrays,你就会对Tensor API感到很熟悉。原创 2024-03-22 00:18:10 · 315 阅读 · 0 评论 -
PyTorch基础知识讲解(一)完整训练流程示例
为了在PyTorch中定义一个神经网络,我们创建一个继承自nn.Module的类。我们在__init__函数中定义网络的层,并在forward函数中指定数据将如何通过网络。为了加速神经网络的操作,如果有GPU的话,我们把它移到GPU上。输入是28*28, 输出包含10个类")nn.ReLU(),nn.ReLU(),modelMyRSNN(原创 2024-03-21 16:17:20 · 484 阅读 · 0 评论 -
偏差-方差平衡(bias-variance tradeoff)
随着训练程度的增长,模型的表达能力逐渐提高,那么偏差就会逐渐减小,同时模型的不稳定性逐渐提高,那么方差就会逐渐增大,此时泛化误差曲线可能呈碗状曲线原创 2022-10-28 15:23:07 · 729 阅读 · 1 评论 -
第一章-机器学习概论与线性回归模型
本文为吴恩达机器学习的简短笔记第一部分,包括机器学习的应用与发展历程,以及线性回归模型的基本概念和术语,同时附有作业代码以及实验中可能遇到的问题以及解决办法。另外笔者还同时在阅读西瓜书,也会放一些内容进去,但仅表述一些概念进行引导,若有疑问可按图索骥,亦非难事。原创 2022-09-27 15:31:20 · 342 阅读 · 0 评论