不想写代码不想秃头
码龄5年
关注
提问 私信
  • 博客:10,527
    10,527
    总访问量
  • 3
    原创
  • 1,793,607
    排名
  • 4
    粉丝
  • 0
    铁粉

个人简介:感兴趣计算机视觉的大学生~

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2019-11-14
博客简介:

sjflsahfisaojfsa的博客

查看详细资料
个人成就
  • 获得7次点赞
  • 内容获得1次评论
  • 获得26次收藏
创作历程
  • 3篇
    2021年
成就勋章
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

184人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

【Transformer学习笔记】DETR:将transformer引入目标检测领域

之前我们有讲过如何将transformer引入CV领域,想去看看的同学可以点击这里:【Transformer学习笔记】VIT解析VIT论文中最后的实验解决的是一个多分类任务。那么transformer的结构能不能用来解决目前cv领域大热的目标检测问题呢?DETR,DEtecion TRsformer就是为了回答这个问题而诞生的。而且它的做法并不是只是直接用transformer结构将传统目标检测网络中的backbone给替换了,它还提出了一种基于set prediction的目标检测新思路。原论文地
原创
发布博客 2021.12.15 ·
3430 阅读 ·
3 点赞 ·
0 评论 ·
8 收藏

【Transformer学习笔记】VIT解析

很久以前科学家做过一个生物实验,发现视觉神经元同样可以被训练来作听觉神经元之用。受此启发,不少计算机研究者也在寻找着机器学习领域的大一统–将CV任务和NLP任务使用相同或者类似的结构进行建模。随着transformer在nlp领域已经杀出了一片天,便有研究者想用它来进军cv领域。Vit,vision transformer正是在此道路上跨出的一大步。transformer是世界上最好的结构!(误)原文地址VIT整体结构论文中的结构图还是十分简单易懂的,相信如果之前接触过Transformer系列
原创
发布博客 2021.12.11 ·
5355 阅读 ·
1 点赞 ·
0 评论 ·
8 收藏

【Transformer学习笔记】Transformer开山之作: Attention is All you Need

这里写自定义目录标题一、transformer整体结构二、why Transformer三、Transformer逐层剖析1.Encoder 编码器词嵌入位置编码多头注意力机制层注意力机制多头encoder总结2.Decoder 解码器解码器输入mask机制双多头注意力机制输出至今,transformer结构的网络可以说已经占据了RNN领域的大半壁江山,在各大RNN竞赛中基本都出现了霸榜的情况。本文主要作transformer的开山之作《Attention is All you Need》的解读.一、
原创
发布博客 2021.12.08 ·
1739 阅读 ·
3 点赞 ·
1 评论 ·
10 收藏