运动学习与控制-学习笔记(二)——运动表现的测量


前言

提示:这里可以添加本文要记录的大概内容:


一、掌握Performance(表现)两种测量的内容

Performance outcome and production measures

1.运动表现测量内容及分类

  • 操作结果测量Performance outcome measure
    outcome or result
    Eg. 距离、时间、反应时、误差

  • 操作过程测量Performance production measure
    nervous,muscular,and skeletal systems function during the performance
    Eg. 运动学、动力学、肌肉活动、大脑活动

二、区分三种RT(反应时);三种Error(误差)

1.三种反应时

在这里插入图片描述
响应时(Response time)的构成:反应时(Reaction time)+动作时(Movement time)
反应时(Reaction time)的构成:前动作时+动作时
区分三种反应时

  • Simple RT :When a situation involves only one signal and
    requires only one movement in response, the RT
    situation is known as simple RT.
  • Choice RT :There is more than one signal to which the person must respond, and each signal has a specified response.
  • Discrimination RT: There is also more than one signal, but only one response.

For example:灯光反应测试

在这里插入图片描述

2.三种Error(误差)

误差反应的是Accuracy(精确度),可以包括:

  • Spatial accuracy位置精确度(一维目标)
  • Temporal accuracy时间精确度(一维目标)
  • 二者都考虑,二维目标精确度/误差分析

还可分为

  • 非连续性动作的精确度/误差
  • 连续性动作的精确度/误差

一维非连续动作

  • AE(绝对误差)= |实际成绩-目标成绩|
    评价误差大小
  • CE(常误)= 实际成绩-目标成绩
    评价误差大小和倾向性
  • VE(可变误差)等同于标准差
    评价表现一致性,体现了CE的分布

二维非连续动作

  • RE(半径误差)
  • Bias and consistency(操作偏差和一致性)

连续技能的误差评估

  • 均方根误差

三、测量过程中运动学和动力学测量及表示方法

运动学Kinematics测量内容

根据运动特点区分

直线运动包括:

  • 位移 Displacement
  • 速度 Velociity
  • 加速度 Acceleration

旋转运动包括:

  • 角度、相对角度以及角速度、角加速度等
  • 相邻关节角度关系图对于常用动作的特征及pattern意义重大

四、过程测量中相关生理指标:EMG、EEG

1、EMG肌电图

  • 获得肌肉激活开始和结束的时间
  • 获得激活肌肉的顺序
  • 加深对的运动中动作的时序理解

2、EEG脑电图——波形

五、课后作业

1.假设你在玩弹珠,往目标洞弹了6次,分别画出符合以下不同误差情况的结果示意图。
在这里插入图片描述

2.假设你是一名足球教练,面对十几名几岁的小孩,你要如何判断他们是否适合踢足球?——完成人任务分析,并依据运动能力分类法中的类别,最终给出判断所需的能力列表。
答:足球运动员需要具有高水平的知觉运动能力、心理运动能力和身体素质,判断小孩是否适合踢足球,需要综合评价小孩的运动能力。
根据运动能力分类法,我认为需要判断的能力列表如下:
1)多肢体协调性
2)反应定向
3)反应时
4)手臂动作速度(守门员)
5)速度控制
6)瞄准能力
7)动态性力量
8)爆发力量
9)全身协调性
10)静态平衡能力
11)动态平衡能力
12)眼-脚协调性
13)眼-手协调性(守门员)
14)耐力

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Prioritized Replay 是 Deep Q-Network (DQN) 中的一种重要改进算法。在传统的 DQN 算法中,模型训练是基于经验回放技术的。简单来说,就是将之前的一些观察和动作的经验随机地从经验池中抽取出来进行训练。但是,这种随机抽样并没有考虑到每个经验的重要性。有些经验虽然出现的次数很少,但是对模型的训练影响很大。因此,如果我们能够对经验进行优先级的排序,就能够更加有效地训练模型。 在 Prioritized Replay 算法中,我们使用了一个优先级队列来对经验进行排序。每个经验的优先级是根据其对模型训练的贡献来计算的。具体来说,每个经验的优先级为: $P_i = |\delta_i| + \epsilon$ 其中 $|\delta_i|$ 表示当前状态下真实 Q 值与估计 Q 值之差的绝对值,$\epsilon$ 是一个很小的常数,避免了某些经验的优先级为 0。这个公式的意思是,我们更倾向于选择那些真实 Q 值与估计 Q 值之差较大的经验进行训练。 在进行经验回放时,我们根据经验的优先级从优先级队列中抽取出经验。我们还需要一个重要的参数 $\alpha$,它表示优先级的重要程度。在优先级队列中,每个经验的优先级 $P_i$ 都会被赋予一个权重 $w_i$,它表示该经验在训练中的重要性。这个权重的计算公式为: $w_i = (\frac{1}{N} \frac{1}{P_i})^{\alpha}$ 其中 $N$ 是经验池中经验的总数,$\alpha$ 是一个超参数,控制优先级的重要程度。这个公式的意思是,优先级较高的经验在训练中得到的权重也较高,从而更加有效地更新模型。 需要注意的是,在 Prioritized Replay 算法中,我们对经验进行了优先级排序,但是这并不意味着我们只选择优先级高的经验进行训练。为了保证训练的稳定性,我们还需要引入一个随机因素,以一定的概率从优先级较低的经验中进行抽样。 总之,Prioritized Replay 算法通过对经验进行优先级排序,从而更加有效地训练模型。它是 DQN 算法的一个重要改进,被广泛地应用于深度强化学习领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值