香芋球狗草
码龄4年
关注
提问 私信
  • 博客:24,389
    24,389
    总访问量
  • 4
    原创
  • 588,939
    排名
  • 46
    粉丝
  • 0
    铁粉
  • 学习成就
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:美国
  • 加入CSDN时间: 2020-11-21
博客简介:

qq_52778783的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    1
    当前总分
    79
    当月
    0
个人成就
  • 获得100次点赞
  • 内容获得1次评论
  • 获得216次收藏
创作历程
  • 2篇
    2023年
  • 2篇
    2022年
成就勋章
TA的专栏
  • 论文精读
  • ML4360
    2篇
兴趣领域 设置
  • 数据结构与算法
    排序算法推荐算法
  • 人工智能
    聚类
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

ML4370学习笔记——2.2Geometric Image Formation(一)

所有到达image plane的光线相互平行,且平行于相机坐标系的。(Projection)指的是将三维点。
原创
发布博客 2023.12.13 ·
829 阅读 ·
23 点赞 ·
1 评论 ·
19 收藏

ML4360学习笔记--2.1 Primitives and Transformations(一)

geometry primitives释义(来自GPT):In computer vision and computer graphics, the term "geometry primitives" refers to fundamental geometric shapes or elements used to construct more complex objects or scenes. These primitives serve as the building blocks for cre
原创
发布博客 2023.12.06 ·
907 阅读 ·
16 点赞 ·
0 评论 ·
17 收藏

ESM蛋白质语言模型学习笔记

ESM蛋白质语言模型学习笔记二、内容概述三、内容梳理(一)ESM-1b模型(二)MSA Transformer模型(三)ESM-1v模型
原创
发布博客 2022.04.13 ·
20057 阅读 ·
59 点赞 ·
0 评论 ·
170 收藏

Transformer学习笔记

一. Transformer诞生背景 Transformer模型是解决序列转录问题的一大创新。在Transformer模型之前,序列转录模型都或多或少的基于复杂的循环或卷积神经网络。 循环神经网络的计算是时序性的,位置的计算必须基于之前所有位置的计算结果,因此循环神经网络上的计算难以并行,效率较低。而且在翻译长句时,循环或卷积神经网络对之前文本的“记忆”是有限的,采用时序计算很可能丢掉之前的重要信息。 为了改善长句翻译过程中信息丢失的问题,诞生了Atte...
原创
发布博客 2022.03.24 ·
2553 阅读 ·
2 点赞 ·
0 评论 ·
9 收藏