自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 ML4370学习笔记——2.2Geometric Image Formation(一)

所有到达image plane的光线相互平行,且平行于相机坐标系的。(Projection)指的是将三维点。

2023-12-13 18:27:44 781 1

原创 ML4360学习笔记--2.1 Primitives and Transformations(一)

geometry primitives释义(来自GPT):In computer vision and computer graphics, the term "geometry primitives" refers to fundamental geometric shapes or elements used to construct more complex objects or scenes. These primitives serve as the building blocks for cre

2023-12-06 23:38:42 811

原创 ESM蛋白质语言模型学习笔记

ESM蛋白质语言模型学习笔记二、内容概述三、内容梳理(一)ESM-1b模型(二)MSA Transformer模型(三)ESM-1v模型

2022-04-13 23:55:14 14989

原创 Transformer学习笔记

一. Transformer诞生背景 Transformer模型是解决序列转录问题的一大创新。在Transformer模型之前,序列转录模型都或多或少的基于复杂的循环或卷积神经网络。 循环神经网络的计算是时序性的,位置的计算必须基于之前所有位置的计算结果,因此循环神经网络上的计算难以并行,效率较低。而且在翻译长句时,循环或卷积神经网络对之前文本的“记忆”是有限的,采用时序计算很可能丢掉之前的重要信息。 为了改善长句翻译过程中信息丢失的问题,诞生了Atte...

2022-03-24 07:45:00 2463

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除