背肌训练记录

引体向上

日期重量RM
2019/01/24+20kg3RM
2019/01/17+20kg3RM
2019/01/10+30kg1RM
2018/12/20+30kg1RM
2018/12/13+25kg1RM
2018/12/06+25kg1RM
2018/11/29+20kg2RM
2018/11/22+15kg3RM
2018/11/15+12.5kg3RM
2018/11/08+10kg4RM
2018/11/01自重6RM
2018/10/25+5kg4RM
2018/10/18+5kg5RM
2018/10/11+5kg5RM
2018/09/27自重5RM
2018/09/20自重5RM
2018/09/13自重5RM
2018/09/06自重5RM
2018/08/30自重4RM
2018/08/23自重5RM
2018/08/16自重7RM
2018/08/09自重8RM
2018/07/26自重9RM
2018/07/19自重12RM
2018/07/05自重10RM
2018/06/28自重10RM
2018/06/21自重10RM
2018/06/14自重10RM
2018/06/07自重12RM
2018/05/31自重12RM
2018/05/24自重12RM
2018/05/17自重8RM
2018/05/10自重10RM
2018/05/03自重10RM
2018/04/26自重8RM
2018/04/19自重8RM
2018/04/12自重6RM
2018/03/22自重8RM
2018/03/15自重8RM
2018/03/08自重10RM
2018/03/01自重10RM
2018/02/08自重10RM
2018/02/05自重12RM
2018/01/29自重10RM
2018/01/26-14kg12RM
2018/01/22自重10RM
2018/01/17自重10RM

T杠划船

日期重量RM
2018/05/0340kg12RM
2018/01/1735kg12RM

单臂划船

日期重量RM
2018/11/2926kg12RM
2018/10/1824kg12RM
2018/10/1128kg12RM
2018/09/2726kg12RM
2018/09/2024kg12RM
2018/09/1324kg12RM
2018/09/0624kg12RM
2018/08/3018kg12RM
2018/08/2330kg12RM
2018/06/2830kg12RM
2018/06/2130kg12RM
2018/06/1430kg12RM
2018/06/0730kg12RM
2018/05/3130kg8RM
2018/05/2430kg12RM
2018/05/1730kg10RM
2018/05/1020kg12RM
2018/05/0326kg12RM
2018/04/1226kg12RM
2018/04/0626kg12RM
2018/03/1526kg12RM
2018/03/0824kg12RM
2018/02/0522kg12RM
2018/01/2922kg12RM
2018/01/2622kg12RM
2018/01/2220kg12RM
2018/01/1718kg12RM

站姿划船

日期重量RM
2018/10/1860kg12RM
2018/09/2070kg12RM
2018/09/1360kg12RM
2018/08/3050kg12RM
2018/08/2350kg12RM
2018/08/0960kg12RM
2018/06/2860kg10RM
2018/05/3150kg12RM
2018/05/1050kg12RM
2018/04/1945kg12RM
2018/04/0640kg12RM
2018/03/0850kg15RM
2018/03/0150kg12RM
2018/01/2650kg12RM
2018/01/2240kg12RM
2018/01/1770kg10RM

滑论下拉

日期重量RM
2018/11/1559kg12RM
2018/11/0859kg12RM
2018/10/2559kg12RM
2018/10/1852kg12RM
2018/10/1152kg12RM
2018/09/2745kg12RM
2018/09/2052kg12RM
2018/09/1352kg12RM
2018/08/3045kg12RM
2018/08/2352kg8RM
2018/08/0945kg12RM
2018/07/2645kg12RM
2018/07/1945kg12RM
2018/07/0552kg12RM
2018/06/2845kg12RM
2018/06/2145kg12RM
2018/06/1445kg12RM
2018/06/0770kg6RM
2018/05/3145kg12RM
2018/05/1766kg8RM
2018/05/1063kg8RM
2018/04/2663kg7RM
2018/04/1245kg12RM
2018/04/0663kg12RM
2018/03/1563kg12RM
2018/03/0845kg12RM
2018/03/0145kg12RM
2018/02/0559kg12RM
2018/01/2945kg12RM
2018/01/2645kg12RM
2018/01/2263kg12RM
2018/01/1745kg12RM

上斜方

日期重量RM
2019/01/2340*2kg12RM
2019/01/0940*2kg12RM
2018/12/1940*2kg12RM
2018/12/1236*2kg12RM
2018/12/0520*2kg22RM
2018/11/2834*2kg12RM
2018/11/2132*2kg12RM
2018/11/1432*2kg12RM
2018/11/0732*2kg12RM
2018/10/3130*2kg12RM
2018/10/2430*2kg12RM
2018/10/1730*2kg12RM
2018/10/1030*2kg12RM
2018/09/2628*2kg12RM
2018/09/1928*2kg12RM
2018/09/1228*2kg12RM
2018/09/0528*2kg12RM
2018/08/2928*2kg12RM
2018/08/2228*2kg12RM
2018/08/0826*2kg12RM
2018/07/2526*2kg12RM
2018/07/1824*2kg12RM
2018/07/0424*2kg12RM
2018/06/2722*2kg12RM
2018/06/2022*2kg12RM
2018/06/1320*2kg12RM
2018/06/0620*2kg12RM
2018/05/3120*2kg12RM
2018/05/2418*2kg12RM
2018/05/1718*2kg12RM
2018/05/0314*2kg12RM
2018/04/1945kg12RM
2018/04/1212*2kg12RM
2018/04/0640kg12RM
2018/03/1550kg12RM
2018/03/0828kg12RM
2018/01/2240kg12RM
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值