m0_46686292
码龄5年
关注
提问 私信
  • 博客:4,661
    4,661
    总访问量
  • 1
    原创
  • 521,962
    排名
  • 1
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:河南省
  • 加入CSDN时间: 2020-03-29
博客简介:

m0_46686292的博客

查看详细资料
个人成就
  • 获得4次点赞
  • 内容获得8次评论
  • 获得52次收藏
创作历程
  • 1篇
    2020年
成就勋章
TA的专栏
  • 图像处理
    1篇
  • 人工智能
    1篇
  • 意图搜图
    1篇
  • 笔记
兴趣领域 设置
  • 人工智能
    opencv计算机视觉深度学习tensorflowpytorch图像处理nlp
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

图像领域attention加入谷歌开源vgg19(手把手教程)

图像领域attention加入谷歌开源vgg19!!vgg16和vgg19有什么区别为什么要加入attention?并且基本原理attention加入vgg结束语 vgg16和vgg19有什么区别 转送门:https://www.jianshu.com/p/e0845ecaf7f7. 博主已经写的是非常明白了但是有一点需要重点的标注 vgg16:13个卷积层加上3个全链接层 vgg19:16个卷积层加上3个全链接层 为什么要加入attention?并且基本原理 Attention模型的基本表述可以这样理解成
原创
发布博客 2020.06.02 ·
4654 阅读 ·
4 点赞 ·
8 评论 ·
52 收藏