自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 零基础使用飞桨VisualDL轻松实现可视化调参

VisualDL零基础轻松实现可视化调参目录VisualDL零基础轻松实现可视化调参1 背景介绍2 启动本地训练2.1 准备工作2.2 启动训练2.3 调参并完成训练3 使用VisualDL的Scalar功能对比分析本地训练日志3.1 一行命令启动VDL本地训练日志可视化3.2 分析经过VDL可视化处理后的训练日志3.2.1 对比调节Batchsize对模型训练的影响3.2.2 对比调节max_iters对模型训练的影响4 使用VisualDL的VDL.service功能快速分享训练日志4.1 一行命令调用

2020-11-23 20:09:49 4414 1

原创 PaddleDetection挑战赛参赛心得分享

目录(点击可跳转)PaddleDetection挑战赛参赛心得分享1 比赛介绍CVPR2020比赛:商超检测基线基线方案介绍2 比赛历史提交记录3 推进心得3.1 PD挑战赛_V1.0版本:Baseline基线代码测试3.2 PD挑战赛_V2.1版本:PP-YOLO_r18vd模型测试3.3 PD挑战赛_V2.3版本:6500iter恢复训练3.4 PD挑战赛_V2.3.1版本:8000iter恢复训练4 结语PaddleDetection挑战赛参赛心得分享飞桨开发者&百度飞桨官方帮帮团萌新:K

2020-09-29 16:22:20 955 2

原创 Q&A_T-1:来自萌新的深度学习Q&A

萌新的深度学习Q&A第一期-目录1. 我电脑的GPU能本地跑深度学习么?2. Nvidia系列GPU太多了,怎么选择呢?3. 一般需要多少显存?4. GPU算力的主要评测指标是什么?5. 算力不够怎么办?6. 深度学习的路线规划1. 我电脑的GPU能本地跑深度学习么?首先,要判断你的显卡厂商,如果是Nvidia(英伟达)显卡,那么恭喜你可以安装使用目前主流且较为成熟的CUDA深度学习通用并行计算架构。如果你是AMD的显卡,那么别灰心,也有专有的框架,名字是ROCm,只是目前的兼容性和效能

2020-09-28 00:33:51 486

原创 Win10下飞桨PaddlePaddle、Git & PaddleDetection安装教程

Win10下飞桨PaddlePaddle、Git & PaddleDetection安装教程前言PaddleDetection飞桨目标检测开发套件,旨在帮助开发者更快更好地完成检测模型的组建、训练、优化及部署等全开发流程。PaddleDetection模块化地实现了多种主流目标检测算法,提供了丰富的数据增强策略、网络模块组件(如骨干网络)、损失函数等,并集成了模型压缩和跨平台高性能部署能力。经过长时间产业实践打磨,PaddleDetection已拥有顺畅、卓越的使用体验,被工业质检、遥感图像

2020-09-24 00:47:16 4218 1

原创 PaddlePaddle百度架构师手把手带你零基础实践深度学习Note1——零基础入门深度学习

PaddlePaddle百度架构师手把手带你零基础实践深度学习学习笔记——零基础入门深度学习1 前言2 机器学习和深度学习综述2.1 三个概念的定义和关系2.2 深度学习的历史和今天3 使用Python语言和Numpy库来构建神经网络模型3.1 波士顿房价预测问题3.2 处理数据&设计模型3.3 模型的损失与优化3.4 梯度下降的代码实现3.5 随机梯度下降:原理与实现方法3.6 使用随机梯度下降实现模型训练4 飞桨开源深度学习平台介绍4.1 为什么要有深度学习框架?4.2 使用飞桨实践深度学习的优

2020-08-16 08:11:07 329

原创 PaddlePaddle百度论文复现营——视频分类入门学习笔记

PaddlePaddle百度论文复现营——视频分类入门学习笔记1 任务与背景视频分类任务、问题与挑战、经典数据集、深度学习相关背景知识1.1 视频分类的意义1.2 视频分类定义1.3 视频分类的挑战1.4 视频分类发展历程1.5 视频分类数据集1.5.1 HMDB-51主要用于行为识别1.5.2 UCF-101主要用于行为识别,运动分析,是最具有影响力的视频分类数据集之一1.5.3 Sports-1M主要用于行为识别,运动分析,斯坦福大学提供的视频分类数

2020-08-07 00:45:38 620

原创 PaddlePaddle飞桨论文复现营——3D Residual Networks for Action Recognition学习笔记

PaddlePaddle飞桨论文复现营——3D Residual Networks for Action Recognition学习笔记1 背景知识1.1 C3DC3D是一种3D卷积提取视频特征的方法,从水平(X)、垂直(Y)和时序(T)三个方向三个方面同时提取视频的时空特征,其提取到的特征比常规的2D卷积更自然[1]。缺点就是,因为多了一维“时序(T)”,卷积后会引起参数剧增,对计算机GPU算力要求较大。P.S: C3D源代码和预训练模型可参考:http://vlg.cs.dartmouth.e

2020-08-06 18:00:30 1212

原创 PaddlePaddle百度论文复现营——GAN入门学习笔记

百度论文复现营——GAN入门学习笔记1 GAN 概述什么是生成对抗网络?由谁提出?为什么要学习GAN?2 原理与改进GAN的基本原理,GAN的训练方法,GAN的现有问题,GAN的改进方法3 应用场景图像风格迁移4 课程实践手写数字生成你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,

2020-08-06 08:34:06 405

原创 【个人心得】飞桨强化学习7日打卡营学习心得

1 课程回顾第一次接触强化学习能遇到飞桨的科科老师挺幸运的,在此再次感谢她和她的团队为了这门课程所付出的努力,她能用十分清晰简洁的逻辑将复杂的强化学习算法讲的浅显易懂,让我再次理解到了数学抽象的魅力,也为我备考(考研)路上攻克数学增加了不少动力~课程链接是:https://aistudio.baidu.com/aistudio/education/group/info/1335感兴趣的小伙伴可以前往查看哦,有十分详细的录播~以下是我5课节的笔记分享:Lesson1: https://blog.cs

2020-06-26 23:52:29 515

原创 【学习笔记】Lesson5-连续动作空间上求解RL(强化学习7日打卡营-世界冠军带你从零实践)

5.1 连续动作空间tanh(x)用来限制输出的action范围在[-1,1],最后需要根据实际情况缩放。5.2 DDPG(Deep Deterministic Policy Gradient)5.2.1 DQN➡DDPGDDPG除了需要学习Q网络,还需要学习策略网络。5.2.2 Actor-Critic结构(评论家-演员)策略网络——Actor目标网络——Critic目标网络(Target Network)&经验回放(Replay Memory)5.3

2020-06-26 20:07:06 410

原创 【学习笔记】Lesson4-基于策略梯度求解RL(强化学习7日打卡营-世界冠军带你从零实践)

4.1 随机策略与策略梯度4.1.1 Value-based & Policy-based常见的确定性策略有:Sarsa, Q-learning, DQN常见的随机性策略有:Policy gradient确定性策略优先优化Q网络,输出的是确定性的策略(结果)。随机性策略输出的是不同动作的概率,在随机性的场景较为适用,比如小游戏剪刀石头布。4.1.2 Softmax函数4.1.3 随机性策略举例> Episode(一轮)4.1.4 轨迹Trajectory——每个e

2020-06-26 19:47:07 372

原创 【学习笔记】Lesson3-基于神经网络方法求解RL(强化学习7日打卡营-世界冠军带你从零实践)

Lesson3-基于神经网络方法求解RL3.1 背景知识——值函数近似&神经网络RL➡Deep RL: 从少量状态到数不清的状态3.1.1 值函数近似(Q函数近似)3.1.2 神经网络——黑盒不黑神经网络可逼近任意连续函数案例分析:求解四元一次方程代码如下# 运行线性回归模型————快速求解4元一次方程# 加载库import paddle.fluid as fluidimport numpy as np# 生成数据np.random.seed(0)out

2020-06-26 18:35:56 462

原创 【学习笔记】Lesson2-基于表格型方法求解RL(强化学习7日打卡营-世界冠军带你从零实践)

2.1 MDP、状态价值&Q表格2.1.1 MDP(马尔可夫决策过程)四元组<S,A,P,R>2.1.2 Q表格:状态动作价值Q表格就像是一本生活经验手册,上面记录着不同情况(State)下,不同行动(Action)所带来的价值(Reward)。往往同一个行动在不同情况下会产生不同的价值,生活中也是如此。为了实现最大效益,我们往往不能只看眼前效益,很多时候我们需要关注一系列行动所带来的未来总收益,但只关注未来总收益未必合理,因此,引入了衰减因子γ(伽马),让模型更

2020-06-26 16:54:13 389

原创 【学习笔记】Lesson1-强化学习(RL)初印象(强化学习7日打卡营-世界冠军带你从零实践)

Lesson1-强化学习(RL)初印象1 什么是强化学习1.1 核心思想智能体agent在环境environment中学习,根据环境的状态state,执行动作action,并根据环境的反馈reward(类似于现实生活的奖励)来指导更好的动作。关键词:2 part: agent, environment3 factors: state/observation, action, reward两大特点:强环境交互,强决策性奖励延迟1.2 一个有趣的示例代码可参考PARL目录:

2020-06-23 23:27:22 327

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除