- 博客(49)
- 收藏
- 关注
原创 【扩散模型Diffusion Model系列】0-从VAE开始(隐变量模型、KL散度、最大化似然与AIGC的关系)
VAE,变分自编码器,算是Diffusion Model扩散模型的预热,事实上VAE和Diffusion Model有诸多异同
2023-12-18 21:07:31 1785 1
原创 深度学习优化器Optimizer-SGD、mSGD、AdaGrad、RMSProp、Adam、AdamW
最常用的优化器SGD、mSGD、AdaGrad、RMSProp、Adam、AdamW的介绍和公式,其中AdamW算法是Adam算法的改进,SGD在CNN中还有不错的发挥,但在Transformer中却效果一般,如今Adam和AdamW算法在Transformer模型中有着更为广泛的应用,如Llama、OPT、GPT等,即使还有一些新的如Lion等优化器,但大体上了解以上优化器就足够了。
2023-12-16 21:51:18 1391
原创 stable diffusion model训练遇到的问题【No module named ‘triton‘】
triton, bug, diffusers训练
2023-09-17 10:08:44 4970
原创 [日记]LeetCode算法·二十五——二叉树⑤ AVL树(插入+删除)附代码实现
AVL,二叉平衡树,二叉搜索树,二叉树,Leetcode,算法
2023-05-17 21:47:25 617
原创 [笔记]计算机基础 6 CSAPP Lab5-CacheLab
第6章Cache是读的最快的一章,花了一天,从早上看到晚上,就全看完了,感觉比起之前要简单一些。lab方面,A Part整理清楚框架后,不到一个小时就解决了,A Part花了半天;而B Part顺着自己的思路走,半天处理了32x32,而又花了大半天处理64x64,然后将64x64做完后就觉得不对劲,只好百度,之后就是顺着正规思路再写一遍,总共一个lab花了2-3天。
2023-04-24 21:03:39 867
原创 Pytorch学习(4):Tensor统计、where与gather
文章目录前言一、统计1.范数norm2.max/min/mean/sum/prod3.argmax/argmin/dim/keepdim4.Topk/kthvalue5.比较/eq/equal一、高级操作where/gather1.条件where2.gather总结前言Pytorch学习笔记第四篇,关于Tensor的统计(max、min、mean等)、where、gather。提示:以下是本篇文章正文内容,下面案例可供参考一、统计1.范数norm从目前学习的知识来看,pytorch提供p..
2021-02-19 13:07:34 938
原创 Pytorch学习(3):Tensor合并、分割与基本运算
文章目录前言一、合并Cat/Stack1.Cat2.Stack二、分割Split/Chunk1.Split2.Chunk三、基本运算1.加减乘除2.矩阵乘法mm/@/matmul3.幂运算**4.指数exp/对数log5.近似floor/ceil/round/trunc/frac6.裁剪(归化)clamp总结前言Pytorch学习笔记第三篇,关于Tensor的合并(cat/stack)、分割(split/chunk)与基本运算。一、合并Cat/Stack1.CatTensor中cat是co..
2021-02-18 19:21:58 5533
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人