【王树森】RNN模型与NLP应用(1/9):数据处理基础(个人向笔记)

数值特征和分类特征

以下图为例子进行学习:
在这里插入图片描述

  • Age: 年龄本身就是数值特征,数值特征可以比较大小。
  • Gender: 二分的分类特征,可以用0和1来表示男性和女性。
  • Natinoality: 可以用0-197的这些数字建立一一映射,但是由于国籍之间没有大小关系。固改用One-hot编码来表示国籍:用197维的向量来表示。其中全0的向量代表国籍缺失。
    在这里插入图片描述
    这样,我们就可以用一个199维的向量来表示一个人:
    在这里插入图片描述

Quesion: 为什么国籍要用One-Hot编码而不是直接用数字编码更节省存储空间?

  • 数字编码相加无实际意义:
    在这里插入图片描述
  • One-hot编码的相加更能够表示特征:
    在这里插入图片描述

处理文本数据

Step1:Tokenization(Text to Words)

把文本中的单词都进行分割,将一篇文变为一个个词:
在这里插入图片描述

Step2:计算词频

  1. 建立一个空的哈希表来对词频进行计数
  2. 对哈希表按照词频由大到小进行排序,index从1开始。(哈希表长度被称为vocalubary)①为避免最后vocalubary过于庞大,我们进行计数和排序的目的就在于此,②还可以筛选掉一些人名或者拼写错误的词,最后只取排序前面的单词进行编码即可。

Step3:One-hot编码

对文本中的每一个词编码成其在哈希表中的index:
在这里插入图片描述
若一个单词在哈希表中不存在,则直接编码为0或者忽略即可。

  • 7
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
王树森的Q学习是一种强化学习算法,广泛应用于机器学习领域。 Q学习是通过不断迭代更新一个称为Q值的表格来实现的。这个表格记录了每个状态和动作组合的Q值,表示在某个状态下,采取某个动作所获得的预期回报。通过学习更新Q值,智能体能够学会在不同的情境下选择最优的动作。 王树森的Q学习算法主要包含以下几个步骤: 1. 初始化Q值表格,设置初始状态和动作; 2. 在每个时间步骤中,智能体观察当前状态和可用的动作,并根据一种策略(如epsilon-greedy)选择一个动作; 3. 执行所选择的动作,观察新的状态和获得的奖励; 4. 更新Q值表格,使用Q-learning更新公式:Q(s, a) = (1 - α) * Q(s, a) + α * (r + γ * max(Q(s', a'))),其中α是学习率,γ是折扣因子,r是获得的奖励,s'是新状态; 5. 重复上述步骤,直到达到指定的终止条件(如达到最大迭代次数或Q值收敛)。 王树森的Q学习算法具有以下优点: 1. 简单而高效:Q学习算法易于理解和实现,可以在很多问题上取得良好的效果; 2. 模型无关性:Q学习不需要事先了解环境的动力学模型,只需要通过与环境的交互进行学习即可; 3. 可扩展性:Q学习可以应用于离散或连续动作空间的问题。 然而,王树森的Q学习算法也存在一些限制和挑战: 1. 状态空间和动作空间的维度较高时,Q值表格会变得非常庞大,导致算法的计算和存储开销很大; 2. Q学习对环境中随机性的处理不够灵活,可能会收敛到局部最优解; 3. Q学习算法通常需要大量的训练数据和迭代次数才能获得较好的结果。 综上所述,王树森的Q学习是一种经典的强化学习算法,通过不断更新Q值表格来实现智能体的学习和决策。虽然存在一些限制,但Q学习在许多问题上取得了良好的效果,是机器学习领域中的一项重要研究内容。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值