Ruby‘s Adventure——角色运动和动画制作

1. 新建场景和加入角色

1.首先从官网下载Ruby’s Adventure资源包,导入到项目中后,开始创建场景。一般,我们将游戏中的第一个场景命名为MainGame。
在这里插入图片描述

2.新建场景后,双击MainGame,出现白色方框,表示场景已经创建完成。找到Ruby面向我们的图像添加到场景中,重命名为Player,方便后续用到Tag时不会忘记。
在这里插入图片描述
在这里插入图片描述
3.出于习惯,紧接着给Player添加 Rigidbody 2D组件,注意不能选成Rigidbody组件。
在这里插入图片描述
4.本游戏中,Ruby的行动由我们的键盘所控制,因此将重力设为0,并固定Z轴,防止后续添加碰撞后发生旋转。
在这里插入图片描述
5.为Player创建PlayerController脚本,命名一般采取对象名+Controller,表明谁被控制。添加新的文件夹Scripts用于存放脚本,将PlayerController拖入文件夹中。
在这里插入图片描述
6.双击脚本进入编辑器,编写Ruby移动的代码。
PlayerController

using System.Collections;
using System.Collections.Generic;
using UnityEngine;

public class PlayerController : MonoBehaviour
{
   
    public float speed = 5f;//习惯使然,在5后加f表示浮点数
    
    private Rigidbody2D _rigidbody2D;//创建刚体,不需外界看见,所以设为private

    private Vector2 _lookDirection = Vector2.down;//设置Ruby的初始朝向
    private Vector2 _currentInput;//存储我们的键盘输入

    private float _x;
    private float _y;

    // Start is called before the first frame update
    void Start()
    {
   
        _rigidbody2D = GetComponent<Rigidbody2D>
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
强化学习中的策略梯度(policy gradient)是一种基于优化策略的方法,它直接对策略进行优化,而不是先估计值函数,再通过值函数来优化策略。策略梯度方法可以解决连续动作空间的问题,并且可以处理高维状态空间的问题。 策略梯度方法的主要思想是通过梯度上升来优化策略,即不断地调整策略参数,使得策略获得更高的奖励。这个过程可以通过计算策略在当前状态下采取各个动作的概率,然后根据奖励函数来更新策略参数。 策略梯度方法的优点是可以处理连续动作空间和高维状态空间的问题,并且可以处理非凸、非线性的问题。但是,策略梯度方法的缺点是收敛速度慢,容易陷入局部最优解。 以下是一些关于RL-Policy Gradient的资料: 1. Reinforcement Learning: An Introduction(强化学习:导论)书籍中关于Policy Gradient的章节:https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf 2. Policy Gradient Methods for Reinforcement Learning with Function Approximation论文:https://papers.nips.cc/paper/1713-policy-gradient-methods-for-reinforcement-learning-with-function-approximation.pdf 3. Deep Reinforcement Learning: Pong from Pixels论文:https://arxiv.org/pdf/1312.5602.pdf 4. Policy Gradient Methods for Robotics论文:https://arxiv.org/pdf/1709.06009.pdf 5. RL-Adventure-2:Policy Gradient Algorithms Pytorch实现的代码:https://github.com/higgsfield/RL-Adventure-2 6. Policy Gradient Algorithms笔记:https://lilianweng.github.io/lil-log/2018/04/08/policy-gradient-algorithms.html
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值