![](https://img-blog.csdnimg.cn/direct/40befc19e7aa4588b6d1be6cccad41a5.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch学习【小土堆】
文章平均质量分 76
【PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】】https://www.bilibili.com/video/BV1hE411t7RN?p=22&vd_source=cdd93033e19ffe61f167bada04827323
困了困了该睡了
吃饱了睡,睡饱了吃,全年休假,不用上班!
展开
-
【小土堆】完整模型训练套路
同时,为了跟上视频进度,我将训练轮数仅设置为 2 次。刚刚开始起步,有不对的欢迎指正一起学习。原创 2024-02-08 18:41:00 · 425 阅读 · 0 评论 -
pytorch损失函数、反向传播、优化器【小土堆】
(链接可以直接跳转)原创 2024-02-07 13:38:46 · 1760 阅读 · 1 评论 -
pytorch学习:B站【小土堆】
b站:我是土堆,PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】仅个人学习记笔记使用原创 2024-02-03 14:53:27 · 347 阅读 · 1 评论 -
神经网络【小土堆】
在输入图像中(例:5*5),中使用池化核(3*3),取池化选中的9个数字中最大的一个。Ceil_model = True 时,因步长使输入图像中被选中区域不足池化核大小时的数据,进行保留并取最大值。Ceil_model = False 时,因步长使输入图像中被选中区域不足池化核大小时的数据,直接舍去nn.Linear定义一个神经网络的线性层,方法签名如下:torch.nn.Linear(in_features, # 输入的神经元个数out_features, # 输出神经元个数。原创 2024-02-06 13:39:58 · 1709 阅读 · 0 评论