![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
李沐课程学习笔记
文章平均质量分 89
记录学习过程中遇到的问题和解决方案
flex_university
这个作者很懒,什么都没留下…
展开
-
李沐深度学习引言笔记
参考知乎文章。原创 2024-04-14 15:04:04 · 798 阅读 · 0 评论 -
李沐深度学习预备知识——数据操作
深度学习中参数较多,并在一秒内多次更新所有参数,此时希望能够在原地址更新以防内存占用。并且如果不原地更新,其他的引用对象仍然会指向原位置,容易造成使用未更新的老参数,故了解tensor的内存机制很重要。若张量形状不同,则两张量的运算会先各自适当自我复制元素来扩展,两张量都完成扩展后再按元素相加。大小为1的tensor张量可以容易的以item函数或py内置函数转换成py的标量。Numpy的ndarray与pytroch的tensor可以容易的转换。与任何其他的python索引一致,故略。原创 2024-04-17 10:18:42 · 1093 阅读 · 1 评论