【自用收藏视频】

沐神-朱老师-论文精读

【强推】多模态论文串讲·上【论文精读】科研经验:从前人工作里得到insight,哪些是可以发扬光大的,哪些是最好移除的,从而得到多模态的大致框架;ALBEF(1.align before fuse,在fuse之前先align特征对齐;2.momemtum distillation使产生的特征更稳定), VLMo(1. 模型结构改变更灵活:一个FFN劈成3个Expert FFN;2. 训练策略改变:分阶段 训练)】

【强推】视频理解论文串讲(上)【论文精读】【deep video 和 双流网络及其变体】
【强推】视频理解论文串讲(下)【论文精读】【3d 网络 和 transformer】

【已经用上】在讲 OpenAI Whisper 前先做了一个剪视频小工具【论文精读】【视频 字幕生成 | 工具】

OpenAI Whisper 精读【论文精读】

DALL·E 2【论文精读】【文本生成图像 | 扩散模型 | 工具】

体验地址:https://huggingface.co/spaces/dimaseo/dalle-mini

Neural Corpus Indexer 文档检索【论文精读】【沐神评价一篇论文】

深度学习 知识

【機器學習2021】自注意力機制 (Self-attention) (上)【李宏毅老师讲解,通俗易懂】
【機器學習2021】自注意力機制 (Self-attention) (下)【从矩阵乘法理解Self-attention,Multi-head Self-attention,Self-attention的应用,Self-attention 和 CNN,RNN的区别】

【機器學習2021】Transformer (上)【Sequence to Sequence,以及介绍Transformer 的block:Self-attention】
【機器學習2021】Transformer (下)【Transformer 的Decoder,理解Mask Self-attention, Cross-attention】

一些会议视频

Self-Supervised Learning: Self-Prediction and Contrastive Learning | Tutorial | NeurIPS 2021 | OpenAI

科普视频

5分钟带你搞懂神经网络的工作原理!【人工 模拟神经元】

Chat GPT (可能)是怎麼煉成的 - GPT 社會化的過程【李宏毅老师解读】

时隔七年再看!李飞飞TED演讲:我们是如何教会计算机理解图片的【不仅要计算机识别图片中的物体,还要识别意图,七年后的今天来看都实现了,实现意图的任务VQA,VL等等…在论文精读的多模态里有将任务】

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值