深度学习论文
文章平均质量分 86
记录日常学习的论文
fishy_
这个作者很懒,什么都没留下…
展开
-
【CLIP】Learning Transferable Visual Models From Natural Language Supervision(详细版)/背景/创新/模型框架/应用/优缺点
每次学习一个经典模型以学习笔记的形式进行总结、记录、复盘,不仅能加深理解,更有利于日后翻阅。本篇博客论文的撰写顺序和框架是个人认为熟悉一个模型的过程。主要是博客、视频讲解和论文(偏少)结合学习,最后进行总结归纳,有不足之处欢迎指正讨论。原创 2024-03-28 15:07:44 · 1491 阅读 · 0 评论 -
CS231n中线性代数相关笔记1【自用】-方差/标准差/协方差
在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。第二个公式图更容易理解定义。两个变量的协方差为正值的情况:如果两个变量的变化趋势一致,即其中一个大于自身的期望值,另外一个也大于自身的期望值两个变量的协方差为负值的情况:如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。原创 2023-05-06 19:00:59 · 168 阅读 · 1 评论 -
【BERT】——Bidirectional Encoder Representation from Transformers(基础版)
BERT的训练包含pre-train和fine-tune两个阶段。训练数据的生成方式是从平行语料中随机抽取的连续两句话,其中50%保留抽取的两句话,它们符合IsNext关系,另外50%的第二句话是随机从预料中提取的,它们的关系是NotNext的。BERT模型分为24层和12层两种,其差别就是使用transformer encoder的层数的差异,BERT-base使用的是12层的Transformer Encoder结构,BERT-Large使用的是24层的Transformer Encoder结构。原创 2024-03-19 17:45:45 · 775 阅读 · 0 评论