- 博客(2)
- 收藏
- 关注
转载 pycharm安装镜像
1、pip install scipy -i https://pypi.douban.com/simple/ 2、pip install --index https://pypi.mirrors.ustc.edu.cn/simple/ + (要下载的模块)pandas 3、pip install --index http://mirrors.sohu.com/python/ 例如 pip install scipy==1.2.1 -i https://pypi.douban.com/simp...
2021-09-20 15:02:46 685
转载 2021-09-19
内容转自Line_Walker的文章,链接PyTorch学习之 torch.optim 的6种优化器及优化算法介绍_地山谦的博客-CSDN博客 记录到自己博客中,以便温故知新 这6种方法分为2大类:一大类方法是SGD及其改进(加Momentum);另外一大类是Per-parameter adaptive learning rate methods(逐参数适应学习率方法),包括AdaGrad、RMSProp、Adam等 1.1 SGD(stochastic gradient descent) 当训练数
2021-09-19 17:00:28 77
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人