自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 基于Anaconda的离线安装python环境以及依赖库方法(Windows系统)

本文介绍了在联网和离线环境下搭建Python环境的完整流程。首先在联网机上通过Anaconda创建指定版本的Python环境并安装所需库,然后详细说明了两种环境迁移方法:直接打包整个虚拟环境或单独下载库及其依赖包。重点阐述了第二种方法的具体操作步骤,包括使用pip download命令下载库及依赖到指定目录,创建requirements.txt文件,以及在离线机上通过--no-index和--find-links参数完成安装。该方法避免了在联网机上搭建完整镜像环境的麻烦,特别适用于依赖特殊软件环境的情况。

2025-07-25 14:35:02 1151

原创 博客摘录「 一文通透想颠覆Transformer的Mamba:从SSM、HiPPO、S4到Mamba(被誉为Mamba最佳解读)」2025年7月15日

Transformer在处理文本翻译等任务时,每一时刻的输出也依赖于之前时刻的输出,但是Transformer可以并行训练,这是因为Transformer decoder的输入虽然包含之前时刻的输出,但是在训练时是把之前时刻输出的真值作为decoder的输入,而真值在训练数据中都是已经存在的,因此在训练时使用masked attention便可以实现并行训练。而RNN当前时刻的输入包含的上一时刻输出的隐藏状态ht-1,这个ht-1在训练数据中是没有已经存在的真值的,因此在训练时只能串行递归一步一步训练。

2025-07-15 16:31:45 132

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除