![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 70
Alvin___Lee
这个作者很懒,什么都没留下…
展开
-
从零开始入门语音信号识别
原始语音信号到梅尔语谱图入门原创 2022-06-27 19:50:13 · 1202 阅读 · 4 评论 -
神经网络常见优化算法总结
基于深度学习优化算法进行总结SGD:普通基于一阶梯度下降算法AdaGrad:引入自适应学习率,用普通学习率除以历史梯度的累积均方根来完成对应的学习率自适应RMSProp:在AdaGrad的基础上对历史梯度的累积均方根进行指数衰减,自适应调整学习率,引入动量项,即新的学习方向由历史方向和当前梯度共同决定Adam:带衰减的历史梯度的累积均方根自适应调节学习率由动量项来确定更新方向学习率调节参数和动量项都进行修正...原创 2021-08-04 22:09:12 · 746 阅读 · 0 评论 -
BAIL论文阅读
BAIL: Best-Action Imitation Learning for Batch Deep Reinforcement LearningX. Chen, Z. Zhou, Z. Wang, C. Wang, Y. Wu, and K. Ross, “BAIL: Best-Action Imitation Learning for Batch Deep Reinforcement Learning,” Advances in Neural Information Processing Syste原创 2021-06-08 16:24:55 · 228 阅读 · 0 评论 -
DDPG源码解读
源码来源主函数分为两个模式,一个测试,一个训练,测试时动作未使用随机噪声,未将样本存进经验池。训练过程中,每个episode内不更新,结束后再更新,最终要的损失函数和梯度计算部分集中在agent.update()函数内。def main(): agent = DDPG(state_dim, action_dim, max_action) ep_r = 0 if args.mode == 'test': agent.load() for i in r原创 2021-04-26 20:01:36 · 687 阅读 · 0 评论 -
策略梯度简明逐步公式推导
策略梯度算法是众多强化学习算法的基础,但公式推导通常不集中,这里将其集中到一起,便于前后对照查看。原创 2020-10-27 16:55:32 · 1401 阅读 · 2 评论 -
python 并行化处理多模型多GPU
python 并行化处理多模型多GPU在基于深度网络的各种应用中,串行地遍历超参数组合完成参数优化速度缓慢。在认为指定多个参数组合情况下,使用多核多卡,开并行能够显著加快模型的运行速度。以下为本人使用的一些代码。import osimport torchimport multiprocessing as mpfrom multiprocessing.pool import Pool # 进程池from multiprocessing import cpu_count #获取系统默认CPU内核原创 2020-08-30 21:46:32 · 1699 阅读 · 0 评论 -
最小二乘,极大似然和最大后验估计的关系
最小二乘,极大似然和最大后验估计的关系problem:曲线拟合中最基本和最常用的是直线拟合。设x和y之间的函数关系由直线方程y=α+βxy=α+βxy=\alpha +\beta x确定,αα\alpha和ββ\beta分别是截距和斜率。N组数据D={(xi,yi),i=1,2,...,N}D={(xi,yi),i=1,2,...,N}D = \{ ({x_i},{y_i}),i = 1,...原创 2018-06-15 09:45:30 · 1264 阅读 · 0 评论